Fragen zu ZFS und Tuning

Seh es so, wenn du mit 5 Würfeln würfest ist es auch wahrscheinlicher eine 3 dabei zu haben als wenn du nur mit einem Würfel würfelst
Das Beispiel halte ich für sehr gut, es hat bei mir jedenfalls den berühmten "Click" ausgelöst.

Meine Erfahrungen liegen eher im Betrieb individueller Platten und nicht in Festplatten-Verbänden und nicht im Betrieb von Rechenzentren. Aber ich überschaue ein Installationsvolumen von etwa 200 Festplatten, von SAS, SATA über IDE und SCSI mit FAT bis NTFS und wenig verbliebenen SUN-UFS und mit HD und SSD drin. Das ist nicht viel, aber sicher mehr, als in einem einzigen PC zu Hause laufen. Nur, Zugriff auf die Betriebsdaten habe ich nicht und kann die deshalb nicht auswerten, sondern erlebe immer nur, wenn mal eine Platte defekt ist. Das ist sehr selten im Vergleich zu anderen Störungen, aber wenn, dann ist es unvorhersagbar. Es sterben die jungen Platten genauso gerne, wie die alten. Man kann da gar nichts sagen, das streut gewaltig.
Es gibt auch keinen vorsorglichen Plattentausch bei einer bestimmten Anzahl von Betriebsstunden (auch keinen Motherboard-Tausch oder CPU-Tausch oder was auch immer). Es gibt Rechner, die zwanzig Jahre durchlaufen und keine Probleme machen und andere stolpern schon nach wenigen Wochen.

Logischerweise hätten die Kaufleute ganz gerne Vorhersagen und Statistik ist ja heute schon eine quasi-Analyse-Methode (bei diesem Fehler war jenes Teil in 85% aller Fälle nützlich, also wird es mit hoher Wahrscheinlichkeit auch diesmal helfen...), aber mir geht das noch nicht so ganz bei. Wenn ich zum Arzt gehe und über Kopfschmerzen klage, dann sagt der auch nicht, dass 85% seiner Patienten mit Kopfschmerzen eine Erkältung haben und dass deshalb Hustensaft die richtige Medizin ist. Er hätte mit Hustensaft trotzdem zu 85% Recht und weil das meist nicht weiter schadet, wäre das vielleicht sogar die bessere Wahl anstatt erst aufwändige Diagnostik zu betreiben. Aber irgendwie ist das doch nicht ganz meine Welt.
Deshalb, nochmal auf das Ursprungsproblem zurück kommend, ist mir die Feststellung am wichtigsten, dass jedenfalls eine redundante Lösung für die Datensicherheit immens viel besser da steht, als ein einfacher Raid0 oder eine einzelne Festplatte. Im Vergleich ist wohl letztlich eher egal, ob eine einzige Festplatte oder zwei Platten im Raid0. Die Wahrscheinlichkeit für einen Ausfall mag rechnerisch bei der letzten Wahl größer sein, aber praktisch gesehen sind beide Möglichkeiten hinsichtlich Datensicherheit sehr sehr schlecht gegenüber einer Lösung mit Redundanz und die Lösung mit Raid0 wird keinesfalls länger halten, als die schwächere der beiden verfügbaren Platten.
 
Wie wäre es damit den alten P4 durch nen CPU Design aus diesem Jahrtausend zu ersetzen und >8GB RAM zu verwenden?
Ganz einfach, weil die mir anfallenden und gestellten Aufgaben mit dieser Hardware noch ziemlich flüssig von der Hand gehen und zweitens, weil ich von Haus aus zur Sparsamkeit und damit auch zur Nachhaltigkeit erzogen wurde. Und nur für ZFS neue Hardware oder aufrüsten? Übertriebenes speicherfressendes Candy Eye mit Superanimationen brauche ich auch nicht und werde dies auch sofort abschalten, wenn ein neuer Rechner angeschafft wird. Mein Rechner läuft und läuft und läuft.... mal sehen wie lange noch, bald startet er ins zwölfte Jahr. Und in dieser Zeit hat er mir treue Dienste geleistet. Ansonsten teile ich die Meinung von @pit234a und mache es wie er. 64 bittig ist meine CPU auch schon.
 
Ich bin auf einem 3 Jahres Zyklus. Ich ersetze den großen Desktop alle 3 Jahre durch aktuelle Hardware und übernehme die alte Hardware ins Zweitsystem. Nach insgesamt 6 Jahren bei mir gibt es dann noch genug Einsatzmöglichkeiten. Eltern, Geschwister echte und eingebildete Verwandte, mit Bedarf nach einem neuen System. Schulen, Flüchtlingsheime und alles andere aus der Richtung ist auch immer für Hardware dankbar, solange sie nicht zu alt ist. Aber das ist natürlich auch eine finanzielle Frage. Nicht jeder hat das Geld, so oft in neue Hardware zu investieren.

Aber um zum Thema zurückzukommen: Ein RAID-0 erhöht die sequentielle Datenraten. Mal sehr grob gesagt, liest und schreibt man mit jeder weiteren Platte in einem RAID-0 Verbund um den Durchsatz dieser Platte. Als Preis steigt das Risiko eines Datenverlustes mit jeder Platte weiter an, wie oben ja schon diskutiert wurde. Ein RAID-0 erhöht allerdings nicht die Zugriffszeiten, im Gegenteil. Durch die notwendige Synchronisation der Festplatten sinken diese eher. Auf alten Platten wie den oben genannten 320GB Modellen kann ein RAID-0 daher durchaus Sinn haben. Auf modernen Platten, die meisten schon einzeln ihre >200MB/s schaffen, ist der Geschwindkeitsgewinn gering und man fährt mit einer SSD, die drastisch geringere Zugriffszeiten hat, oder mehr RAM für mehr Cache meist besser.
 
Bei mir ist es so. das ich ausgemusterte Hardware oft, aber nicht immer von meinem Sohn geschenkt bekomme, @Yamagi, er dürfte wahrscheinlich in Deinem Alter sein und kauft sich stets das Beste. Gerade das Flagschiff von Nvidia, eine Nvidia 1080 für über 700 Euronen. Und nächsten Monat einen guten 4 K Monitor. Seinen ich glaube 24 Zoll Monitor, gerade 2 Jahre alt, bekomme ich dann, freu.:D Nur beim PC selber ist er etwas knausiger..... Nun in meinem Alter, kommenden Mittwoch werde ich ja 66 Jahre, wird man etwas ruhiger. Früher, als ich in seinem Alter war, war ich auch so Technik affin und habe Unsummen für Hardware ausgegeben, die damals ja noch um ein Vielfaches teurer war. So das war auch etwas OT. Nun zurück zum Thema, einen Neuerungszyklus von 3 Jahren finde ich gut. Und wenn mein jetziger PC nicht eine so sensationelle Qualität hätte, wär meine HW auch aktuell. Aber bald wird es wohl einen Wechsel geben, nur im Augenblick sieht es (leider) nicht danach aus. Und wenn der neue PC da ist, kommt natürlich auch wieder ZFS zum Einsatz. Ansonsten habe ich keine großen Anforderungen an einen neuen PC, da wird wohl jedes Modell völlig überdimensioniert sein. Aber wenn ich mal etwas selber aus den Ports baue, ist das dann natürlich schon ein Riesenvorteil. So genug, bis dahin werde ich mich halt noch gedulden müssen.
 
Vielen Dank für Eure zahlreichen Beiträge, ich hätte nicht gedacht, dass meine Frage sowiel Interesse auslösen würde. Zunächst wollte ich mal @holgerw antworten wegen

dazu habe ich als ZFS-Anfänger eine Verständnisfrage: Warum das Betriebsystem (was sich bei Verlusten durch Neuinstallation wieder herstellen lässt) auf einem CopyOnWrite Filesystem mit diversen Features zu Konsistenz, Selbstheilung etc. und Deine persönlichen Daten auf UFS2?
:

Ich hatte nie gesagt, dass ich ZFS auf die SSD-Karte packen würde. Auch da wäre die Installation mit UFS. Ich verstehe nicht, warum soviel Misstrauen gegenüber UFS zu bestehen scheint, das Einzige, worauf ich meine Daten nicht abspeichern würde, wäre auf FAT16/32.

Gut gefallen hat mir der erste Beitrag von @pit234a, insbesondere der persönliche Erfahrungsbericht mit dem alten HW-RAID mit UFS vs später gleicher Rechner mit ZFS:
Das System ist im Vergleich zu früher spürbar langsamer.

Beruhigend zu wissen, dass jemand mit dem Mainboard-Raid gute Erfahrungen gemacht hat. Mir wäre zwar ein reines Software-RAID mit geom_stripe lieber, doch das bietet bsdinstall nicht an und es scheint wohl auch sonst nicht möglich zu sein, eine manuelle Installation damit hinzukriegen, die auch bootfähig ist.

Was ich jetzt letzendlich in Zukunft machen werde, oder ob überhaupt, weiß ich noch nicht. Jedenfalls hatte ich die letzten Tage Rage (idSoftware) durchgezockt und alles lief wunderbar und flüssig mit der normalen mit UFS formatierten Platte und 4 GB RAM. Was immer ich auch vielleicht machen sollte, will ich natürlich eine Verbesserung und die Gewinnung von Speicherplatz, ohne in neue Hardware zu investieren.
 
Das System ist im Vergleich zu früher spürbar langsamer.
deshalb möchte ich mich nun gleich melden, auch wenn meine neuen Erfahrungen noch nicht ausreichend sind.
Seit einigen Tagen habe ich nämlich auf 11-RC1 upgedatet und den Eindruck, dass die Lage doch schon deutlich besser geworden ist. Insbesondere die Gesamtauslastung des Speichers, aber auch die CPU-Last bei einzelnen Anwendungen und damit in der Summe sind viel angenehmer und damit das System doch einen Sprung reaktiver. Ganz besonders auffallend ist, dass ein Prozess gvfsd-trash sich nun deutlich zügelt. Der wird vermutlich automatisch mit nautilus gestartet und eigentlich möchte ich beides gar nicht haben. Aber unter 10.3 uferte der gelegentlich aus und lief bis zu 90% Prozessor-Last auf. Das ist nun gänzlich weg und so brauche ich nicht dauernd top nebenher laufen zu lassen, um diesen Dienst rechtzeitig killen zu können.
Es kommt gelegentlich noch vor, dass Fenster beim verschieben eine "Spur" hinter sich herziehen. Da wird an neuen Positionen schon das Fenster dargestellt, die alten Positionen sind aber noch gar nicht überschrieben. Screenshot davon kann ich aber keinen produzieren.
Also, das System ist irgendwo noch träger, aber dafür können eine ganze Reihe anderer Ursachen als ZFS auch in Frage kommen. Es ist nun mit 11-RC1 jedenfalls gut zum aushalten und nicht mehr so lästig, wie zuvor gelegentlich.
 
Ich hatte nie gesagt, dass ich ZFS auf die SSD-Karte packen würde.

Hallo @cabriofahrer,

dann war das ein Missverständnis.

Auch da wäre die Installation mit UFS. Ich verstehe nicht, warum soviel Misstrauen gegenüber UFS zu bestehen scheint, das Einzige, worauf ich meine Daten nicht abspeichern würde, wäre auf FAT16/32.
Dann natürlich nicht, ich habe kein Misstrauen gegenüber UFS2, ich sehe nur mittlerweile bei zfs Features, die für mich - selbst wenn ich nur Desktop-Systeme aufsetze - sehr interessant sind. Das mag für andere nicht zutreffen, UFS2 abzuwerten ist jedenfalls nicht meine Absicht.

Viele Grüße,
Holger
 
Hey @pit234a, Danke für dieses Update. Und woran könnte das liegen, dass ZFS mit 11.0 besser zusammenarbeitet? Ist der Kernel vielleicht speziell angepasst worden?
Es wird ja laufend irgendwo was gebastelt und ich mache mir nie die Mühe, in die Projektseiten zu schauen. (seltsamerweise sehe ich gelegentlich bei DragonFly nach, das ich gar nicht nutze). Soviel ich irgendwo am Rande mitbekommen habe, ist die Speicherverwaltung in 11 umgestellt worden. Es wird im Endeffekt schneller Speicher wieder freigegeben und ich denke, das dürfte die Hauptursache für das angenehmere Verhalten sein.
Nicht unterschätzen sollte man aber auch diese Geschichte mit dem gvfsd-trash, der ja bei mir zuvor gelegentlich die Ressourcen bis zur Erschöpfung belegt hatte. Solch ein Unverhalten kann leicht mal übersehen werden oder es gibt gelegentliche Spitzen, die man nicht direkt wahrnimmt. Dann hat man schnell das Gefühl, dass ein System träge ist (was es dann ja tatsächlich auch ist) und weil eben das System neu aufgesetzt wurde und vorher gut lief, macht man dann die offensichtlichste Neuerung verantwortlich und das war bei mir eben die Umstellung auf ZFS.
Ebenso können Browser die Leistung des Systems erheblich herunterziehen und zwar bei manchen Seiten, die sie darstellen sollen. Da kam es schon mal vor, dass ein Browser im Leerlauf auf über 20% CPU-Auslastung kam und diese dann auch aufrecht erhalten hatte. Das scheint nun wesentlich verbessert zu sein, es werden vielleicht mal 10% erreicht und das nur für kurze Zeit.
Und trotzdem zickt irgendwas manchmal noch rum und macht da System lahm. Ich vermute, etwas mit der Grafik. schatten.jpg Ein Screenshot ist mir mal gelungen, aber da hing eine Anwendung definitiv, das Bild zeigt aber, was ich meine. Wenn ich Fenster bewege, passiert es manchmal, dass die eine solche Spur hinter sich herziehen und wenn ich dabei top im Auge behalte, schnellen dann die Auslastungswerte für X und für die Anwendungen auf der Seite in die Höhe. Irgendwo habe ich mal gelesen, dass mit zwei Monitoren (ich habe das, also DualHead), die HW Beschleunigung (also VDPAU bei mir) nicht geht. Ich stehe dem Problem etwas ratlos gegenüber und möchte hier auch keinen neuen Thread dafür aufmachen. Es ist lediglich ein Schönheitsfehler, dem ich keine zu große Beachtung schenke.
Ich wollte das hier nur anführen, um deutlich zu machen, dass es extrem schwer ist überhaupt eine Ursache für manche Phänomene zu finden und dass man den Faktor Mensch bei der Beurteilung nicht unterschätzen darf.
Das ist wie bei diesen berühmten Statistiken: Kühe verhindern Verbrechen, wie man leicht sehen kann. In Texas gibt es viele Kühe und wenige Verbrechen und in NewYork ist das umgekehrt, also kann man die Statistik so deuten, dass Kühe die Ursache sind und daher Verbrechen verhindern. Alzu menschlich und natürlich falsch. Mein System (vor allem mit 10.3) hatte sich zäh verhalten und es hatte ZFS neu drin. Allzu leicht verfällt man darauf, hier einen Zusammenhang zu sehen und der ist ja auch irgendwo sogar plausibel. Nur, stimmen muss das deshalb noch lange nicht.
 
Ich hatte diesen Thread noch im Kopf und will ihn nun wieder ausbuddeln, um noch eine Anmerkung zu machen, eine neue Erfahrung zu schildern.
Nachdem mein alter NAS durch Netzteilausfall zerstört war, hatte ich zunächst mit einem anderen NT, das aber vom Gehäuse her nicht passt, die Funktion wieder hergestellt und die Daten runter kopiert. Nun stand die Frage an, ob der NAS ein neues NT spendiert bekommen sollte und ich entschied mich dagegen. Damit habe ich nun auch fünf Platten übrig, jede ca 250G und ich dachte zunächst, dass ich die zusammen mit dem alten NAS entsorge.
In meinem PC habe ich ja zwei ebenso alte 150G zu einem ZFS-mirror verbunden und habe darauf FreeBSD installiert.
Nach kurzer zeit entschloss ich mich, trotz den ungünstigen Gehäuses, meinen Mirror um zwei Platten aus dem NAS zu erweitern. Es ging mir um Ausfallsicherheit, denn die alten Platten sind ja schon alt und haben einige Stunden auf dem Buckel.

Erwartungsgemäß sollte damit auch der Plattendurchsatz höher sein und ich habe nicht eigens Tests mit dem Mirror durchgeführt, weil ich ja auch keine Vergleichswerte habe. Damit kann sich die Geschwindigkeit des Rechners natürlich positiv ändern und ich rechnete damit beim Booten. Überrascht bin ich aber, dass insgesamt das Arbeiten nun deutlich flüssiger vonstatten geht.
Das erkläre ich mir dadurch, dass ZFS doch immer wieder Schreibzugriffe durchführt und regelrechte Bursts absetzt, wo heftig viel für kurze zeit geschrieben wird. Das passiert je nach Anwendung (Firefox, Claws-Mail) etwa im Sekundentakt und diese Zugriffszeiten sind nun kürzer und damit eher vorbei. Ich denke mir halt, wenn diese bursts schneller abgearbeitet sind, dann stören sie meinen Workflow weniger.
Das würde auch bedeuten, dass ZFS dankbar für schnelle Platten ist.
Und das kann vielleicht auch erklären, weshalb meine Erfahrung auf dem betagten Rechner mit seinen alten SATA-Platten zunächst etwas enttäuschend war.

Noch so'n Grund.
Mit der Performance des Systems, wie ich sie jetzt erlebe, bin ich zufriedener und sehe kaum einen Unterschied zu früher.
 
Zurück
Oben