Fragen zu ZFS und Tuning

cabriofahrer

Well-Known Member
Ich möchte vielleicht demnächst meinen PC (Athlon X2 6400+, 4 GB Ram, Geforce 750 GTX, 2 160 GB SATA2-Platten) neu aufsetzen und denke dabei an eine RAID0/ZFS-Konstellation, um "eine" Festplatte mit 320 GB und bessere Performance zu bekommen. Der Rechner ist für den reinen Desktopbetrieb, es geht mir vor allem um schnelle (Festplatten-) Performance und kurze Ladezeiten bei Spielen und sonstigen allgemeinen Desktopanwendungen.

Ich habe im Vorfeld zum Experimentieren mal ein ZFS/RAID0-System auf zwei alten IDE Platten 80 GB, die zusammen an einem IDE Kabel hingen, ausprobiert und der erste Eindruck war positiv. Der Bootvorgang von KDE4 erschien flotter als sonst (eine 160 GB SATA-Platte mit UFS), Level-Ladezeiten von TF2/Steam/wine kürzer und bei einem Kopiervorgang von mehreren GB Daten von einem RAID0-Verbund mit UFS und graid auf die IDE-Platten mit ZFS gab es Geschwindigkeiten von teilweise über 90 MiB/s!
Lediglich bei TF2 fiel auf, dass es manchmal bei extrem schnellen Bewegungen (Scout) zu Verzögerungen kam, im Gegensatz zum Betrieb mit der einen SATA2-Platte mit UFS. Dabei vermag ich natürlich nicht zu sagen, woran das liegt, ob an ZFS oder den zwei alten IDE-Platten an einem Kabel...

Fragen möchte ich nun Folgendes:

Ist die Standardkonfiguration von ZFS für meine Zwecke in Ordnung oder wären einige Tuning-Tipps laut Kapitel 19.6.1 angebracht, z.B. um mehr RAM freizuhalten? Gibt es Features, die ich z.B. gar nicht brauche und die deaktiviert werden könnten? Brauche ich z.B. Prefetching?

Dann habe ich gelesen, dass die Performance von ZFS "degradiert", wenn mehr als 80% des Festplattenplatzes belegt werden? Was genau bedeutet das?

Daten sollen angeblich auf ZFS mehr Platz einnehmen als auf UFS?

Wie sieht es in Zukunft mit einem freebsd-update auf 11.0 aus, könnte es da Probleme geben, dass der ZFS/RAID0-Verbund nicht richtig erkannt wird?

Alternativ wäre natürlich auch ein UFS/RAID0 mithilfe des Mainboard-BIOS und graid möglich, aber das soll ja angeblich riskanter sein...
 
es geht mir vor allem um schnelle (Festplatten-) Performance und kurze Ladezeiten bei Spielen und sonstigen allgemeinen Desktopanwendungen.
Ohne jetzt genau auf deine Frage einzugehen, würde ich dir hier 8GB RAM (ZFS) für deinen PC empfehlen und eine SSD! Wenn es dir um die Performance geht, kommst du um eine SSD nicht herum.
oder wären einige Tuning-Tipps laut Kapitel 19.6.1 angebracht
Ich bin vorsichtig mit ZFS und Tuning. Vieles ist schon sehr gut konfiguriert unter FreeBSD 10.
Wie sieht es in Zukunft mit einem freebsd-update auf 11.0 aus, könnte es da Probleme geben, dass der ZFS/RAID0-Verbund nicht richtig erkannt wird?
Das sollte kein Problem sein.

Gruss
 
Lediglich bei TF2 fiel auf, dass es manchmal bei extrem schnellen Bewegungen (Scout) zu Verzögerungen kam, im Gegensatz zum Betrieb mit der einen SATA2-Platte mit UFS. Dabei vermag ich natürlich nicht zu sagen, woran das liegt, ob an ZFS oder den zwei alten IDE-Platten an einem Kabel...

Hm, was hat das denn mit der Festplatte zu tun? Wenn du im Level rumläufst, dann liegen die Sachen ja schon im RAM (entweder haupt oder GPU). Was ich mir hingegen vorstellen könnte, ist, dass das ZFS mehr von deinem RAM frisst und dass das zu Rucklern führt, weil die Games weniger kriegen, bzw. ZFS zu langsam im freigeben ist.
 
Ohne jetzt genau auf deine Frage einzugehen, würde ich dir hier 8GB RAM (ZFS) für deinen PC empfehlen und eine SSD! Wenn es dir um die Performance geht, kommst du um eine SSD nicht herum.

Danke für den Tipp, aber Aufrüsten, nur um ein anderes Dateiensystem zu verwenden, kommt nicht in Frage. 4 GB RAM sind eigentlich mehr als genug für das was ich so mache. Einen deutlichen Performance-Vorteil habe ich schon alleine durch Verwendung von FreeBSD/UFS gegenüber WinXP/NTFS erfahren. Der Performance-Vorteil durch schaffen eines RAID0-Systems würde mir schon ausreichen.

Hm, was hat das denn mit der Festplatte zu tun? Wenn du im Level rumläufst, dann liegen die Sachen ja schon im RAM (entweder haupt oder GPU). Was ich mir hingegen vorstellen könnte, ist, dass das ZFS mehr von deinem RAM frisst und dass das zu Rucklern führt, weil die Games weniger kriegen, bzw. ZFS zu langsam im freigeben ist.

Und genau solche Vermutungen lassen mich vor ZFS zurückschrecken, weswegen ich hier frage. Aber kann man sich im vorliegenden Beispiel wirklich sicher sein, dass die zwei IDE-Festplatten und die IDE-Schnittstelle selbst da kein Flaschenhals sind? Und ist das allgemeiner Konsens, dass es doch eher 8 als 4 GB sein sollten?
 
Mein Rat: Vergiss Raid-0. Es ist das Riskio nicht wert (es ist nur eine Frage der Zeit, bis du deine Daten verlierst) und der Geschwindigkeitsgewinn ist trotzdem kein Vergleich zu einer SSD. Nimm eine SSD fuer dein System-Laufwerk und haeufig genutzte Daten und habe eine weitere, grosse Platte fuer nicht so haeufig benoetigte Daten (oder gleich eine grosse SSD wenn du es dir leisten kannst; zweite, normale Platte koennest du auch rein als Backup-Platte verwenden).

Mehr RAM ist immer gut (auch weil du von stocken waehrend des Spielen sprichst)...geh mindestens auf 8GB (besser 16GB) dann profitierst du auch automatisch von Prefetching in ZFS.

Etwas exotischer: Um die "normale" Platte zu beschleunigen, koennest du von der SSD ein paar GB fuer ZFS Cache und Log einbinden...dann hast du SSD-schnelles Caching/logging, was deiner "normale" Platte einen kleinen Boost geben sollte (haengt von der Nutzung ab).

Von "speziellen" ZFS Tuning-Tricks wuerde ich erstmal absehen. Die sind mittlerweile nicht mehr unbedingt notwendig...viele der Tipps stammen aus einer Zeit wo ZFS noch nicht voll ausgereift war unter FreeBSD. Einzig die RAM-Limitierung fuer ZFS auf einen definierten Wert, halte ich manchmal fuer sinnvoll.
 
Mein Rat: Vergiss Raid-0. Es ist das Riskio nicht wert (es ist nur eine Frage der Zeit, bis du deine Daten verlierst) und der Geschwindigkeitsgewinn ist trotzdem kein Vergleich zu einer SSD.

Full ACK. Insbesondere, wenn ich mir das Alter der eingesetzten Hardware ansehe. 2x 160GB SATA schätze ich als irgendwas zwischen 10 und 15 Jahren alt ein, die werden es realistisch betrachtet eh nicht mehr lange machen.

Ansonsten solltest du bedenken, dass ZFS ein Ram-Fresser ist. Das Dateisystem wurde nicht mit dem Desktop als Zielsystem entwickelt. Unter 8GB würde ich damit nicht anfangen und eigentlich braucht man Speichermodule mit ECC um wirklich Nutzen aus den Features von ZFS zu ziehen. Zu deinen initialen Fragen, die ich im wesentlichen als noch unbeantwortet sehe:

Ist die Standardkonfiguration von ZFS für meine Zwecke in Ordnung oder wären einige Tuning-Tipps laut Kapitel 19.6.1 angebracht, z.B. um mehr RAM freizuhalten? Gibt es Features, die ich z.B. gar nicht brauche und die deaktiviert werden könnten? Brauche ich z.B. Prefetching?

Wäre ich sehr vorsichtig mit. Im Wesentlichen ist meine Meinung dazu, dass du die Finger ovn ZFS lassen solltest wenn du anfangen willst Features auszuschalten weil du zu wenig Ram hast.

Dann habe ich gelesen, dass die Performance von ZFS "degradiert", wenn mehr als 80% des Festplattenplatzes belegt werden? Was genau bedeutet das?

Das heißt einfach, dass die Performance von ZFS schlechter wird wenn du über 80% des Filesystems belegst. Das ist, vereinfacht gesagt, dem geschuldet dass das Filesystem dann verstärkt gegen Fragmentierung ankämpfen muss.

Daten sollen angeblich auf ZFS mehr Platz einnehmen als auf UFS?

Schwierige Sache. ZFS bringt Features wie Kompression und Deduplication mit, von daher würde ich das so nicht unterschreiben wollen, sondern das Gegenteil behaupten, aber: Auch hier ist entsprechend Dicke Hardware vorausgesetzt wenn man diese Features nutzen möchte.

Wie sieht es in Zukunft mit einem freebsd-update auf 11.0 aus, könnte es da Probleme geben, dass der ZFS/RAID0-Verbund nicht richtig erkannt wird?

Derartige Probleme habe ich zumindest bisher noch nicht gesehen
 
Ob die Speicherplatzausnutzung einzelner Dateien unter ZFS schlechter als bei UFS ist, hängt von vielen Faktoren ab. Unter dem Strich nimmt sich das aber nicht viel. Generell, auf das ganze Dateisystem betrachtet, ist es allerdings schwer noch schlechter als UFS zu sein. Denn UFS hat in Standardeinstellung eine Reserve von 7% des verfügbaren Speichers, die nur Root schreiben darf. Bei ZFS beträgt die Reserve nur 3,3%, sie ist allerdings gar nicht beschreibbar. Somit hat ZFS schon mal einen generellen Vorteil von 4,5%.
 
eigentlich braucht man Speichermodule mit ECC um wirklich Nutzen aus den Features von ZFS zu ziehen.
Ich habe auch schon mal sinngemäß gelesen:
"Lieber ein ZFS ohne ECC, wo dann im worst case der Kernel Panik bekommt, als ein an deres Dateisystem, dass den Bitflip garnicht erst merkt. Eigentlich will man immer ECC, ohne Ausnahme."
 
Das würde ich so unterschreiben. Leider sieht Intel das anders und aktiviert ECC nur auf Xeons. Xeons auf dem Desktop sind aber so eine Sache. Die Auswahl an Mainboards ist stark eingeschränkt, außerdem sind die Mainboards und CPUs teurer als die normalen Desktop-Varianten. Und die zumindest beim Desktop-Sockel erscheinen die oberen Modelle traditionell gar nichts als Xeon... Also muss man in der Praxis irgendwo einen Kompromiss eingehen. Vor dem Hintergrund ist auch zu wünschen, dass AMD Zen etwas wird. Und wenn es nur im Sinn von "Gutes Verhältnis aus Preis, Leistung und Stromverbrauch" ist. Denn AMD schaltet traditionell ECC auch auf dem Desktop frei und ganz generell gesehen braucht Intel dringend mal wieder etwas ernstzunehmende Konkurrenz.
 
Vielen Dank erstmal für Eure ausführlichen Antworten. Ich denke, dass die allgemeinen Ansprüche hier an Hardware und Performance wohl sehr hoch liegen, so dass es für mich ein bisschen schwierig ist, das alles für meine eher geringeren Anforderungen zu interpretieren. Aber ich hätte noch eine Frage konkret zu:

Mein Rat: Vergiss Raid-0. Es ist das Riskio nicht wert (es ist nur eine Frage der Zeit, bis du deine Daten verlierst)

Wie kommt man zu dieser Aussage? Soweit ich das sehe, liegt das Problem bei RAID0 darin, dass wenn eine Platte im Verbund verreckt, natürlich alle Daten futsch sind, weil über mindestens zwei Platten verteilt. Doch ist das Risiko aus irgendeinem Grund höher als beim Normalfall, wo man eine einfache Festplatte (ada0) mit UFS hat und diese verreckt?

Full ACK. Insbesondere, wenn ich mir das Alter der eingesetzten Hardware ansehe. 2x 160GB SATA schätze ich als irgendwas zwischen 10 und 15 Jahren alt ein, die werden es realistisch betrachtet eh nicht mehr lange machen.

Wovon hängt die Lebensdauer von Festplatten wirklich ab? Vom reinen Verstreichen einer gewissen Zeit oder eher von der konkreten Aktivität? Dazu noch eine kleine Theorie: Die Festplatten scheinen unter Windows/NTFS fast ständig zu rattern, also mehr Aktivität, hingegen unter FreeBSD/UFS immer schön still zu sein, es sei denn, sie werden wirklich gebraucht, Ladezeiten sind deutlich kürzer, etc. Also theoretisch auch längere Lebensdauer unter FreeBSD?

Die Idee mit einer SSD ist gut, das würde z.B. die Möglichkeit eröffnen, das Betriebsystem auf SSD laufen zu lassen und das Home-Verzeichnis auf eine separate Partition mit einem UFS-Software-RAID0 zu legen...
 
Die Idee mit einer SSD ist gut, das würde z.B. die Möglichkeit eröffnen, das Betriebsystem auf SSD laufen zu lassen und das Home-Verzeichnis auf eine separate Partition mit einem UFS-Software-RAID0 zu legen...
Hallo @cabriofahrer,

dazu habe ich als ZFS-Anfänger eine Verständnisfrage: Warum das Betriebsystem (was sich bei Verlusten durch Neuinstallation wieder herstellen lässt) auf einem CopyOnWrite Filesystem mit diversen Features zu Konsistenz, Selbstheilung etc. und Deine persönlichen Daten auf UFS2?

Mir ist klar, das auch ZFS kein Backupersatz für persönliche Daten ist, aber davon mal abgesehen würde ich - wenn man überhaupt noch UFS2 parallel zu ZFS einsetzen möchte - eher die eigenen Daten auf ZFS packen (mir hat hier ja sogar ein Mod mal gesagt, ich solle das "Geraffel" mit UFS2 ganz lassen, und besser komplett auf ZFS setzen).

Aber vielleicht hast Du ja gute Gründe, das anders zu machen.

Viele Grüße,
Holger
 
Mein PC hat einen "Intel(R) Core(TM)2 CPU 6320 @ 1.86GHz" und 8G RAM und eine 'G71GL [Quadro FX 3500]' GraKa. Das ist alles nicht neu. Außerdem ist auf dem MotherBoard ein HW-Raid für SATA fest eingebaut und da sind zwei Platten angeschlossen, "300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes)".

Der Rechner hat FreeBSD seit einer späten 5er oder 6er Version drauf. Bis 8.4 hatte ich immer upgedatet, die Platten zu einem RAID= verschaltet und UFS darauf. Diese Systeme waren aus den Ports gebaut (die HW wechselte dabei gelegentlich, weil Sound- oder GraKA mal starben).
Seit einigen Monaten habe ich nun auf FreeBSD 10.3 umgestellt und die Platten ohne jede Raid-Funktion am Kontroller, dafür aber Z-RAID1 darauf laufen.

Das System ist im Vergleich zu früher spürbar langsamer.
Das kann ich nur feststellen, aber nicht die Ursache dafür benennen. Tests mit bonnie zum Beispiel zeigen eine deutlich höhere Geschwindigkeit, als zuvor (wegen irgendwelcher Mechanismen, die neu sind, konnten die Platten früher nicht als SATA-2 erkennt und behandelt werden). Deshalb kann ich nicht ZFS dafür verantwortlich machen. ZFS verhält sich nicht unruhig, aber ich habe den Eindruck, dass irgendwas doch häufiger die Platten beansprucht, als das früher der Fall war. Es ist aber auch klar, dass alle Vorgänge, die rhythmisch irgendwas nachsehen (etwa Mails aus dem Netz ziehen) auch die Platten beanspruchen, wenn hier nicht explizit Mechanismen mit tmpfs eingebaut werden. Das gilt aber natürlich auch für UFS wie für ZFS.
Mein Verdacht liegt auf einer schlechten Grafik-Performance, doch wirkliche Gründe habe ich nicht für meine Annahme.

Die Speicherauslastung mit ZFS ist deutlich höher, aber ich fahre trotzdem erfolgreich ohne SWAP.

Ich denke, du solltest am ehesten selbst mal probieren und testen, was dir zusagt. Einfach mal ein kleineres System, ein wenig Grafik (openbox oder fluxbox oder einfach den vorhandenen twm), ein wenig firefox und dann mal loslegen und sehen, wie das so gefällt.
Ich muss vielleicht vorweg schicken, dass ich ein Fan von ZFS bin aber ich bin auch so etwas wie ein Fan von Hartmann und Weiss (http://www.hartmannandweiss.com/) und weil ich mir das nicht leisten kann, jage ich erfolgreich mit sehr viel billigeren Waffen. ZFS ist zwar ebenso günstig wie UFS, aber es ist eben doch mit einigen größeren Nebenwirkungen behaftet und ich finde nach wie vor, dass man viele der positiven Attribute im normalen PC-Betrieb gar nicht bemerkt. Immerhin kommt zB Microsoft vollkommen ohne aus und ist wohl noch immer auf den meisten Desktop-PCs installiert. Oder noch so'n (rhetorischer) Grund: wenn ich zehn, fünfzehn, zwanzig Jahre ohne ZFS auskam und kein einziges Problem hatte, das auf mangelhafte Eigenschaften des Dateisystems zurück zu führen gewesen wäre, dann ist das neue und super-gute ZFS natürlich schon geil, aber es löst Probleme, die bei mir praktisch nie eine Rolle gespielt hatten. Was für mich gilt, mag für andere nicht gelten!
Letztlich wird der Diskussion für einen Desktop vielleicht zu viel Bedeutung beigemessen. Denn, dass ZFS nun etwas kann, das ich mit UFS nie hätte können, das ich aber bei beiden niemals brauchen werde, ist ja schließlich kein Grund für oder gegen eines der beiden. Es bedeutet, dass ich es gar nicht bemerken werde, welches Dateisystem auf einem PC installiert ist. Ich kann ja schon von der Oberfläche her nicht sagen, ob ein GNU/Linux oder ein FreeBSD drunter läuft, geschweige denn, welches Dateisystem benutzt wird. Alle gebräuchlichen Dateisysteme sind heute zuverlässig und vollkommen tauglich für den Einsatz auf einem Desktop-PC und nur, wer die Wahl hat muss sich ein wenig mit einer Entscheidung quälen, die dann später so gut wie keine Rolle mehr spielt.
Es sei denn, es hat jemand explizit Verwendung für einige der guten neuen Eigenschaften von ZFS, aber dann beantwortet sich die Frage ja eh von selbst.
Ansonsten ist das für das spätere System wirklich keine sehr bedeutende Entscheidung.

Die Lebensdauer von Festplatten gebe ich am liebsten so an: 50.000 Betriebsstunden +/- 49.000 h.
Wer zuverlässig die Lebensdauer vorhersagen könnte, hätte die Möglichkeit, damit viel Geld zu verdienen.
Es ist aber auch so, dass Platten im Lager altern. Alle Werkstoffe, vor allem aber Kunststoffe altern und deshalb sind sogar zehn Jahre alte Platten, die nie gebraucht wurden, nicht mehr wie neue Platten aus der Fabrik. Das gilt besonders, wenn die Platten nicht optimal gelagert wurden, was in einem PC eingebaut ja durchaus bedeutet. Dabei ist der "Verschleiß" der Platten, Schreib- und Leseköpfe und der Permanentmagnete quasi nicht vorhanden. Platten sterben sehr oft wegen Motor- oder Elektronikschaden.
 
Wie kommt man zu dieser Aussage? Soweit ich das sehe, liegt das Problem bei RAID0 darin, dass wenn eine Platte im Verbund verreckt, natürlich alle Daten futsch sind, weil über mindestens zwei Platten verteilt. Doch ist das Risiko aus irgendeinem Grund höher als beim Normalfall, wo man eine einfache Festplatte (ad
Die Ausfallwahrscheinlichkeit der Platten addiert sich.
 
Die Ausfallwahrscheinlichkeit der Platten addiert sich.

Das glaube ich nicht, aber ich habe auch in der Schule schon die Wahrscheinlichkeit nicht kapiert.
Was ich denke:
Nehmen wir eine Platte, die nach 1.500h ausfallen wird. Eine andere hält 30.000h. Wenn ich die nun zusammenbaue, ist ein Raid-0-Pool nach 1.500h zerstört. Würde das nun schneller gehen, hätte die zweite Platte ja einen negativen Einfluss auf die erste Platte.
 
Nicht auf die erste Platte, auf den gesamten Pool. Wenn eine Platte hopsgeht, interessiert dich ja nicht, ob die andere noch geht, sondern dass der Pool dann Schrott ist.

Edit: Oder anders: Nimm an, nur eine Platte wäre für den ganzen Pool verantwortlich. Dann ist logischerweise die Ausfallwahrscheinlichkeit der Platte = Ausfallwahrscheinlichkeit des Pools.

Diese Wahrscheinlichkeit (des gesamten Pools) kannst du doch nicht gleichlassen, wenn du jetzt noch ein weiteres Risiko in den Pool einbringst.
 
Rechnen wir mal mit 5% Ausfallswahrscheinlichkeit pro Jahr aus wie Wahrscheinlich es ist, dass dein $n Platten RAID-0 nach einem Jahr noch lebt.
Code:
n = 1 :   (100% - 5%) ^ 1 = 95%
n = 2 :   (100% - 5%) ^ 2 = 90%
n = 3 :   (100% - 5%) ^ 3 = 86%
n = 4 :   (100% - 5%) ^ 4 = 81%
n = 5 :   (100% - 5%) ^ 5 = 77%
 
Die Ausfallwahrscheinlichkeit eines RAID 0 aus
a601995d55609f2d9f5e233e36fbe9ea26011b3b
Festplatten in einem bestimmten Zeitraum beträgt
c365f7d663a577108d6d4a9e6c2a999ff16ee3e9
. Das gilt nur unter der Annahme, dass die Ausfallwahrscheinlichkeit
81eac1e205430d1f40810df36a0edffdc367af36
einer Festplatte statistisch unabhängig von den übrigen Festplatten und für alle Festplatten identisch ist.

[Quelle: https://de.wikipedia.org/wiki/RAID#RAID_0:_Striping_.E2.80.93_Beschleunigung_ohne_Redundanz ]
 
Ob diese statistischen Zahlenspielereien für den praktischen Einsatz eine Rolle spielen, bezweifel ich. Dann kann ich ja gleich das Wetter für die nächsten Monate voraussagen. Meine Seagate HD 250 GB hat elf Jahre gehalten und sie würde noch laufen, aber ich habe sie aus Gründen der Sicherheit Anfang des Jahres ausgetauscht. Sie lief jeden Tag zwischen mindestens 8 aber oft bis 12 Stunden. Ob die ein Ausreißer war, kann ich nicht beurteilen. Auch hatte ich auf dieser HD noch nie ein defektes Dateisystem, wobei ext3/ext4/btrs/ufs/zfs und anfangs fat32/ntfs zum Einsatz kamen. Allerdings hatte ich Probleme bei extern angeschlossenen USB-HD sowie USB Sticks.
 
Mein Nachdenken über das Thema "Ausfall-Wahrscheinlichkeit" ist noch nicht abgeschlossen, aber ich glaube, dass meine persönliche Erfahrung und die mathematischen Berechnungen zuwider laufen. Dass ich von Lebensdauer gesprochen habe und hier von Ausfallwahrscheinlichkeit geredet wird, ist nicht weiter von Belang. Im Detail müsste man sicher genauer hinsehen, aber grundsätzlich werden sich die beiden Begriffe reziprok verhalten.
Wichtig erscheint mir, dass diese Vorhersagen darauf fußen, dass alle beteiligten Platten sich nicht beeinflussen (was ich auch voraussetze) und das sie die gleiche Ausfallwahrscheinlichkeit (also auch Lebensdauer, Lebenserwartung) aufweisen, was meiner Erfahrung widerspricht. Wäre dem so, dann müssten alle Platten aus einem Pool nahe beieinander den Geist aufgeben. Tatsächlich zeigen Platten in meiner Welt ein sehr stark streuendes Verhalten und halten sich überhaupt nicht an die Angaben zur (mittleren) Lebensdauer. Diese Werte, (wie auch die Ausfallwahrscheinlichkeit und Werte zu zu erwartenden Schreib- oder Lesefehlern) scheinen mir statistische Werte bei einer großen Anzahl beobachteter Platten zu sein (wobei sie in Wahrheit wohl eher irgendwie berechnet werden) und die individuelle Platte kann dazu große Abweichungen aufweisen und zwar in beide Richtungen. Deshalb ist für mich praktisch gesehen (ich beziehe mich immer auf meine eigenen Erfahrungen) keine Formel zur Vorhersage der Ausfallwahrscheinlichkeit bei einem Zusammenschluss mehrerer Platten gültig, weil die Voraussetzung in der Realität einfach nicht erfüllt ist, dass alle Platten sich gleich verhalten und deshalb eine gleiche Ausfallwahrscheinlichkeit aufweisen.
Meist suche ich verzweifelt nach Vergleichen und was mir hierzu einfällt ist die durchschnittliche Lebenserwartung eines Menschen, zB in Deutschland. Aus dieser statistischen Größe kann keinerlei Aussage über die individuelle Lebenserwartung abgeleitet werden. Der Durchschnitt ist vielleicht irgendwo bei 75 Jahren, aber es sterben verdammt viele Leute schon deutlich jünger.
Bei einer Ansammlung von Festplatten wird meist eine auch deutlich früher sterben, als die anderen.
Das ist im statischen Rahmen, aber eben nicht vorhersehbar. Und diese Platte hat eine deutlich höhere Ausfallwahrscheinlichkeit in der Realität bewiesen und dadurch die oben genannte Formel zur Ungültigkeit gebracht.

Beweisen kann ich da gar nichts. Aber ich füge mal die Ausgabe aus meinem alten Pool an:
Code:
Power_On_Hours:             10452
Power_On_Hours:             1912
Power_On_Hours:             65073
Power_On_Hours:             65072
Power_On_Hours:             3012
gestartet war der seinerzeit mit fünf gleichen Platten, die also auch alle die gleiche Ausfallwahrscheinlichkeit hatten. Zwei davon laufen noch. An einer Stelle wurde bereits zwei mal getauscht. Die tatsächliche Lebensdauer der individuellen Platten weicht eben stark von den Vorhersagen ab und das ist, was ich in meinem ersten Post auch meinte, mit der durchschnittlichen Lebensdauer von 50.000h +- 49.000h.

Aus meiner Überlegung folgere ich, dass der individuelle Ausfall-Zeitpunkt einer Festplatte nicht praktisch vorhergesagt werden kann. Damit gelten die Formeln aus Wikipedia meiner Ansicht nach nicht für einen tatsächlichen Verband von Festplatten, sondern nur für einen theoretischen Verband und liefern nur eine statistische Kenngröße.
Im Falle von Raid0 bedeutet das für mich, dass die schwächste Platte die Gesamt-Lebensdauer bestimmt und diese wird durch den Einsatz im Pool nicht verkürzt und deshalb genauso lang sein, wie beim Einsatz als Einzelplatte.

Dass bei redundanten Systemen der Tod einer einzelnen Platte nicht den Ausfall des Verbandes bedeutet, ist eine andere Geschichte.
Natürlich muss man bedenken, dass bei einer Redundanz mit einer einzigen Platte auch gleichzeitig zwei sterben können oder bei einer Redundanz mit zwei Platten können gleichzeitig drei sterben und daraus leitet sich dann eine jeweils höhere Wahrscheinlichkeit für dauerhaftes Überleben der Daten im Pool ab. Das Zeitfenster für einen Austausch einer defekten Platte ist aber wenige Stunden groß und dass ausgerechnet in der Zeit eine weitere Platte stirbt, dürfte sehr unwahrscheinlich sein. Praktisch gesehen. Gegenüber einer einzigen Platte oder einer Lösung ohne Redundanz dürfte deshalb jede Lösung mit Redundanz eine gigantische Steigerung sein.

Wie gesagt, ich bin da noch am denken und danke ausdrücklich für den Input dazu.
 
@pit234a natürlich sind das reine Theoriewerte. Die Streuung der Hardware ist hier viel zu groß um sagen zu können wann genau eine Festplatte ausfällt. Die Unterschiede innerhalb einer Reihe von Modellen kann schon groß sein. Dennoch sagt die Theorie aus, dass die Wahrscheinlichkeit steigt mit zunehmender Anzahl der Festplatten. Seh es so, wenn du mit 5 Würfeln würfest ist es auch wahrscheinlicher eine 3 dabei zu haben als wenn du nur mit einem Würfel würfelst... Da beim RAID0 nunmal der erste Ausfall einer Platte zum Totalausfall führt ist das vergleichbar. Natürlich wird die Festplatte mit der geringsten Lebensdauer die Lebensdauer des "RAID" definieren. Durch die bereits von dir angesprochene Streuung wird dies der entscheidende Punkt sein. Aber auch hier: Wenn du 5 Platten einsetzt ist die Wahrscheinlichkeit, dass eine davon Mist ist höher als wenn du nur eine Platte hast. ;) Alles reine Theorie natürlich, aber sie beschreibt (für ausreichend große Versuche) die Realität nunmal recht gut. Sobald wir hier in die Größenordnungen von 2-5 Festplatten kommen überwiegen natürlich die singulären Effekte. Das ist aber mühselig darüber zu streiten. Nimmst du nun 10000 Versuche mit 3 Festplatten werden sie sich auch wieder der Theorie annähern... ;)
 
Das Zeitfenster für einen Austausch einer defekten Platte ist aber wenige Stunden groß und dass ausgerechnet in der Zeit eine weitere Platte stirbt, dürfte sehr unwahrscheinlich sein. Praktisch gesehen.
Dazu wollte ich noch was sagen. Denn im normalen Betrieb liest eine Platte viele Daten, hin und wieder schreibt sie auch welche... Lange Zeit ruht sie sich aus. Im Fall eines Ansynchronisieren eines neuen Laufwerks bekommt die Platte plötzlich dauerhaft viel Last. Wie anstrengend das Ganze für die Platte ist hängt dann auch noch von der Art des RAID ab. Zumindest ist dies eine Situation die, durch die deutlich höheren Last, eine deutlich höhere Ausfallwahrscheinlichkeit für die Festplatte bedeutet.
 
Ich hatte auch schon öfter den Fall, dass eine Platte gestorben ist, die spare Platte automatisch gesynced und dann kurz darauf oder schon währenddessen noch eine Platte den Geist aufgegeben hat. Wenn man das als Home User betrachtet erscheint die Wahrscheinlichkeit dass das passiert sehr gering, wenn man aber in einem Rechenzentrum arbeitet sieht man, dass sowas sehr relativ häufig passiert.

Ich will damit nur sagen: Vorsicht mit den eigenen Beobachtungen wenn die eigene Datenbasis sehr klein ist.
 
Mir war und ist schon klar, das in Rechenzentren und im Businessbereich andere Anforderungen und Ansprüche bestehen und erforderlich sind als bei meiner Insellösung im Desktop Bereich. Das hatte ich vergessen, bei meinem Thread anzumerken und deshalb hole ich es hier nach. Aber was Wahrscheinlichkeiten angeht, halte ich meine Meinung aufrecht. Und einen hochaufgerüsteten PC mit Raid Controller benötige ich auch nicht. Selbst von ZFS bin ich wieder weg, weil 2 GB RAM zu wenig sind. Es funktioniert noch, aber mehr schlecht als recht. Und wenn ein fetter Desktop wie Gnome oder KDE zum Einsatz kommt, ist mein Arbeitsspeicher schon nach dem Start bis zu 50% belegt. Das macht für mich keinen Sinn, erst wennn ein neuer Rechner ansteht, der mittlerweile mit mindestens 8 GB geplant ist.
 
Wie wäre es damit den alten P4 durch nen CPU Design aus diesem Jahrtausend zu ersetzen und >8GB RAM zu verwenden?
 
Wie wäre es damit den alten P4 durch nen CPU Design aus diesem Jahrtausend zu ersetzen und >8GB RAM zu verwenden?

Vor dem Problem stehe ich auch ständig, obschon mein PC schon 64Bit kann und 8G RAM hat.
Aber, was mache ich denn dann mit dem Alten? Der funktioniert doch noch ausgezeichnet, wieso soll ich ihn denn verschrotten? Schließlich, ein neuer Rechner ist ja auch die meiste zeit mit nichts beschäftigt. Wieviel Millionen Takte der nun zwischen zwei Buchstaben abarbeitet, die ich so produziere, ist doch relativ egal. Auch meinen kleinen 32Bit Asus mit seinem Atom 280 benutze ich noch regelmäßig und bekomme keine grauen Haare beim Warten auf Anwendungen. Er hat mir vor Jahren gute Dienste geleistet, warum sollte sich nun etwas daran ändern, wo ich doch auch älter und langsamer werde?
Es gibt zunehmend Anwendungen, die immer aufgeblasener werden, ohne dabei mehr leisten zu können oder mir mehr zu bringen, als das vor Jahren schon der Fall war. Diese Diskussion hatten wir schon mal und es ist der Lauf der Dinge, wenn alles immer hochauflösender und immer mehr mit bunten und bewegten Grafiken gespickt wird. Man kann sich dem nicht verschließen und wird eines Tages auch neue HW brauchen.
Aber, nur um ein anderes Dateisystem zu benutzen?
Dann muss es einem schon sehr viele Vorteile bieten und ZFS hat viele Vorteile, von denen ich aber die allermeisten ungenutzt lasse. Das ist eine persönliche Entscheidung und damit ist ja auch kein Vorwurf verbunden oder eine missionarische Botschaft. Man kann aber auch heute (vor allem beim Desktop-PC) noch ganz gut ohne ZFS auskommen und somit auch schwächere HW einsetzen.
Das finde ich persönlich viel besser, als gleich alles neu zu kaufen.
 
Zurück
Oben