raw_read_error_rate bei SMART

h^2

hat ne Keule +1
Ich habe dazu gestern im IRC schon ein bisschen rumgenervt:

Nach vielen Plattenissues, habe ich mir ne neue 2TB geholt und wollte die jetzt ausgiebig prüfen bevor sie in Einsatz kommt. Dazu habe ich sie einmal mit sdd ausgelesen, dann einmal mit 0en überschrieben, und dann nochmal ausgelesen (jeweils mit -noerror und try=3).

Jetzt habe ich eine raw_read_error_rate von 500. Die Bewertung dieses Feldes ist im Netz ziemlich unterschiedlich von "Egal, so lange die * Sector Count-Werte niedrig sind" bis hin zu "sofort ersetzen". Die * sector counts sind bei mir alle 0, also nicht reallocated, nichts pending. Write-Errors sind auch keine registiert, ein short Self-test der Platte nach den obigen Prozeduren lief auch problemlos.

Trotzdem finde ich es seltsam, dass direkt nach dem auspacken, die raw read error rate schon so hoch ist. Zum Vergleich, in meiner 5 Jahre alten 80GiB Notebook-Platte, die ziemlich viele Shocks miterlebt hat ist die rate noch 0.

Danke für eure Tipps!

p.s: Eine Diskussion über Festplattenmarken und 2TB Platten allgemein, hatte ich gestern auch schon (und wir mir helfen, wenn ich mal ne neue kaufe), ich würde jetzt aber erstmal gerne rausfinden ob diese konkrete Platte kaputt ist oder nich.t

edit: zweiter read zyklus wurde mit anderem kabel und controller gemacht, Fehler stiegen trotzdem.
 
Zuletzt bearbeitet:
Die Raw Error Rate ist nichtssagend, denn sie ist vom Hersteller und dort noch einmal vom Modell abhängig und daher zwischen verschiedenen Platten nicht vergleichbar. Seagates haben zum Beispiel tendetiell einen gigantisch hohen Wert dort stehen, WD hingegen einen eher niedrigen. Das der Wert beim ersten Einschalten schon gesetzt ist liegt schlicht daran, dass die Hersteller die Platte in der Produktion einem Test unterzogen und unter anderem einmal komplett mit Nullen überschrieben haben.
 
Die Raw Error Rate ist nichtssagend, denn sie ist vom Hersteller und dort noch einmal vom Modell abhängig und daher zwischen verschiedenen Platten nicht vergleichbar. Seagates haben zum Beispiel tendetiell einen gigantisch hohen Wert dort stehen, WD hingegen einen eher niedrigen. Das der Wert beim ersten Einschalten schon gesetzt ist liegt schlicht daran, dass die Hersteller die Platte in der Produktion einem Test unterzogen und unter anderem einmal komplett mit Nullen überschrieben haben.

Ok, das ist erstmal beruhigend. Also beim ersten Start war der Werte 0 und nach jedem Lesedurchgang ist er um ca. 260 gestiegen. Platte ist Samsung…
 
Zum Vergleich:
SAMSUNG HD103SJ, 1899 Laufstunden, Raw Error Rate 24854
WDC WD10EACS-00D6B0, 3941 Laufstunden, Raw Error Rate 0
Hitachi HDS721050CLA362, 54 Laufstunden, Raw Error Rate 27548
Seagate ST3400832AS, 17856 Laufstunden, Raw Error Rate 23016349

Okay, sehr unterschiedliche Laufstunden. Aber klar zu sehen:
- WDC hat einen sehr niedrigen Wert. Alle meine Platten hier von ihnen haben 0, egal wie lange sie liefen. Auch mit (sanften) Schlägen gegen das Gehäuse kann man daran nichts ändern. WD scheint den Wert gar nicht oder nur in Extremsituationen zu setzen.
- Hitachi trotz Jungfräulichkeit schon recht hoher Wert. Hitachi scheint dort fast alles an Lesefehlern reinzuhauen, was so auftritt. Und Platten haben inzwischen recht viele Lesefehler, aber auch eine gute Fehlerkorrektur.
- Samsung bewegt sich irgendwo im Mittelfeld, scheint nur wenige Fehler zu registrieren. Wahrscheinlich nur besonders schwere oder mehrere in einem bestimmten Zeitraum.
- Seagate wie gesagt gigantisch hohe Werte. Sie scheinen wie Hitachi praktisch alles zu speichern.

Was sagt dir das jetzt? Nichts, weil man nichts sagen kann. Du könntest die Platte aus dem Gehäuse nehmen und auf eine feste und gerade Unterlage legen. Dazu an beiden Längsseiten mit schweren Büchern "zusammenpressen". Steigt der Wert dann nicht mehr oder weniger an, müsste man sich mal anschauen, ob die Platten im Gehäuse aufschaukeln. Denn aufschaukeln lässt den Kopf aus der Spur fliegen, was vielleicht oder vielleicht auch nicht die Raw Error Rate erhöht. :)
 
Zurück
Oben