Dateisysteme fuer SSD

Vril

Well-Known Member
Grundsaetzlich stellt sich mir die Frage, ob unsere Festplatten-Dateisysteme von UFS bis ZFS
( aber auch NTFS in der Parallelwelt ) in unseren heutigen Notebooks, Laptops etc.
-die ja in der Regel keine Platte mehr haben- überhaupt noch optimal sind.

Apple ist da mit seinem APFS bei HighSierra schon einen Schritt weiter.
Das laeuft zwar nicht auf Rechnern mit magn. Platten oder Zwitter-Loesungen wie Fusion-Drives,
ist dafuer aber fuer die Flash-Speicher in der Form optimiert, dass Schreibzugriffe schlicht reduziert
wurden.
Ich persoenlich habe es so verstanden, wenn man zB auf der SSD eine Datei von einem in ein anderes Verzeichnis
kopiert, so werden die Daten nicht bewegt - sondern nur eine Art Link auf die Adresse der Daten geaendert.
Ausserdem wird das FS nicht mehr beschaedigt, wenn man zu einem beliebigen Zeitpunkt
das Gerät spannungsfrei schaltet.

Was meint ihr dazu?
 
dass Schreibzugriffe schlicht reduziert wurden.
Was ist denn so schlimm an Schreibzugriffen? Oder mal anders: Schreibzugriffe sind vor allem auf Flash-Speicher wesentlich preiswerter als auf rotierenden Medien. Die Verringerung von Schreibzugriffen wäre also auch eine Optimierung für Dateisysteme auf HDDs.

Rob
 
Das Problem sind halt mal wieder die die Trägheit des Marktes bzw. einiger Anwender und Microsoft Windows. Nach wie vor kommen ein absoluter Großteil aller HDDs und SSDs auf dem Markt mit logischen 512 Byte Blöcken, obwohl sie intern seit über 10 Jahren wesentlich größere Blöcke nutzen und es sowohl deutliche Performance- als auch Overhead-Vorteile hätte, diese auch nach außen zu propagieren. Aber Windows kommt erst ab 8.0 mit größeren Blöcken als 512 Byte klar und das heilige Windows 7 muss weiter unterstützt werden. ganz zu schweigen von den defekten UEFIs zu vieler Kisten, die sich bei etwas anderen als 512 Byte schon mal völlig aufhängen... Und das ist nur die Spitze Eisbergs. Es gab schon vor Jahren Patches für Linux und auch FreeBSD um Host Based SMR zu unterstützen. Windows kann es meines Wissens natürlich wieder nicht. Und entsprechende Platten sind sicher auch daher bis heute nicht auf dem Markt verfügbar, meine ich. SSDs, die den Flash einfach nach außen anbieten, Wear Leveling und co. dem Host überlassen, werden wir aus dem Grund wahrscheinlich auch nicht so schnell sehen.
 
APFS ist hauptsächlich Marketing. APFS ist kaum moderner als ein ZFS oder ein btrfs. Eher weniger (keine data-checksum). Und Copy-on-Write ist jetzt auch nichts neues. Nur, dass Apple das etwas weit treibt und sogar über eine angeforderte Dateikopie einen Dateisnapshot anlegt, statt einer echten Kopie. Sorgt auch gerne für Verwirrung wenn 2 20GB Dateien auf dem Datenträger nur 20GB brauchen, aber bei einem echten Backup dann 40GB. Im Endeffekt ist es "file based deduplication". In btrfs schon länger enthalten für ZFS gibt es ein issue dafür ( https://github.com/zfsonlinux/zfs/issues/405 )

Apple hat an dem Punkt nur "aufgeholt" von ihrem Dateisystem aus den 80ern.
 
APFS ist hauptsächlich Marketing. APFS ist kaum moderner als ein ZFS oder ein btrfs. Eher weniger (keine data-checksum). Und Copy-on-Write ist jetzt auch nichts neues. Nur, dass Apple das etwas weit treibt und sogar über eine angeforderte Dateikopie einen Dateisnapshot anlegt, statt einer echten Kopie. Sorgt auch gerne für Verwirrung wenn 2 20GB Dateien auf dem Datenträger nur 20GB brauchen, aber bei einem echten Backup dann 40GB. Im Endeffekt ist es "file based deduplication". In btrfs schon länger enthalten für ZFS gibt es ein issue dafür ( https://github.com/zfsonlinux/zfs/issues/405 )

Apple hat an dem Punkt nur "aufgeholt" von ihrem Dateisystem aus den 80ern.

APFS ist hauptsächlich Marketing?
Nun ja ...
ich habe aber auch nicht gesagt, dass in APFS nun Dinge stecken, die sensationell neu sind!
Und das dort ähnliche Ideen teilweise umgesetzt wurden, die man in anderen neueren FS wie ZFS und BTRFS auch findet -
ist doch eigentlich logisch.

Die Frage ist eigentlich die: können FS die für magnetische Platten entwickelt wurden überhaupt die richtige Idee für Flashspeicher sein?

Abgesehen davon, ist es ja kein konstruierter Witz, dass es noch immer „gewissenhafte User“ gibt, die am alten und schlecht eingerichteten Win7 PC wöchentlich ihre SSD defragmentieren ;-)
 
APFS ist hauptsächlich Marketing?
Nun ja ...

Apple verkauft gerne kalten Kaffee als total heißen Scheiß, den es zuvor nie gab

Die Frage ist eigentlich die: können FS die für magnetische Platten entwickelt wurden überhaupt die richtige Idee für Flashspeicher sein?

Klar können sie. Denn gewöhnliche SSDs verhalten sich genauso wie normale Festplatten. Jedes Copy-on-Write Dateisystem ist für SSDs besser als nicht-Copy-on-Write Dateisysteme. Wie Yamagi schon schrieb, sind die ganzen Eigenschaften/Nachteile/Vorteile von Flash-Speicher eh hinter einer Firmware versperrt und werden auch so gar nicht nach außen getragen. Und auch APFS verlässt sich hier voll und ganz auf die Plattenfirmware ("Wir machen keine Daten-Checksummen, weil die Plattenfirmware ECC macht").

Anders sieht es bei direktem Flash-Speicher wie SD-Karten aus. Hier gibt es z.B. das Flash-Friendly-Filesystem (f2fs), welches eben die Dinge, die eine SSD in der FIrmware macht, softwareseitig im Dateisystem macht (Wear Leveling und Co.).

HFS ist jedoch sehr schädlich für SSDs, da es eine unmenge Schreibzugriffe hat und auch Apples Software dies tut (Datei-Versionisierung etc.). Im Apple Ökosystem ist APFS eine deutliche Bereicherung. Aber es ist im globalen Kontext halt "nur" State-of-the-Art.... mit Einschränkungen.
 
Genau die. Da sich die einzelnen Datenspuren überschneiden, muss bei einer Änderung ein ganzer sogenannter Track neugeschrieben werden. Die Tracklänge sind meinst um so 200MB. Bei allen(?) kaufbaren SMR-Platten kümmert sich die Firmware darum, meist indem Daten erst in Wartebereiche geschrieben werden und später im Hintergrund dann in die Tracks eingefügt. Das ist suboptimal, weil die Firmware nicht wissen kann, was das Dateisystem treibt. Bei host-based SMR kümmert sich daher das Betriebssysstem, was diese Informationen hat, um das Neuschreiben der Tracks. Und teilweise auch um Dinge wie Tracklängen.
 
Mal eine doofe Frage, so lange ein Speicher wie z.B SSD oder auch ähnliches keinen direkten Zugang zum Flashspeicher bietete sondern das alles intern selbt regelt, ist dann die Frage nach dem Dateisystem nicht überflüssig? Ist ja schön wenn das Dateisystem unnötige Schreibzugriffe vermeidet (sofern das überhaupt bei normaler Nutzung eine Relevanz hat), wenn die Firmware dann aus welchen Gründen auch immer trotzdem Schreibzugriffe erzeugt?

So lange man nicht weiß was die einzelnen Firmware so treiben ist es wohl unmöglich irgendwas für eine SSD zu optimieren. Das ganze ist ja auch einfach nicht transparent, eine SSD gibt sich als Festpplatte aus und wirkt auch so, trotzdem ist unklar was im Flashspeicher dann real passiert. Nur weil ich z.B eine Datei nicht wirklich lösche sondern z.B aus meiner Dateisystemtabelle entferne oder anders zuteile bedeutet das ja nicht das eine Firmware dann nicht doch irgendwas löscht oder umschreibt. Ich denke mir mal so lange keiner weiß was die einzelnen Firmware so treiben und man keinen direkten Zugang zum Speicher hat kann man diese Aussagen SSD tauglich eher als Werbewitz sehen.

Ich für meinen Teil nutze meine SSD ganz normal und sie lebt bereits seit 4 Jahren.
 
Als ich meine erste SSD einbaute, gab es noch kein TRIMM (zumindest auf FreeBSD). Die gleiche SSD läuft auch heute noch im gleichen Rechner und inzwischen wieder täglich mehrere Stunden. Ich nutzte sie damals in einem kleinen Netbook und wollte weniger Stromverbrauch bei mehr Leistung und zwar vor allem beim Lesen. Ich machte mir viele Gedanken darüber, wie ich unnötige Schreibzugriffe verhindern könnte und wahrscheinlich übertrieb ich es dabei ein wenig, bekam die Platte mit UFS im Betrieb aber vollkommen still, wenn nicht bewusst darauf zugegriffen wurde. Dazu nutzte ich sehr viel tempfs und legte etwa auch Verzeichnisse aus meinem Browser hier an oder mit Thumbnails und so weiter.
Inzwischen nutze ich noch immer UFS, mit TRIMM und auch noch immer ausgiebig tempfs, aber ohne weitere Klimmzüge. Gelegentlich gibt es dann Schreibzugriffe auf die Platte.
Was so begonnen hatte, also als Maßnahme zum Einsparen von Strom und zur Verlängerung der Lebensdauer mit einer SSD, ist inzwischen zu einem Standard bei mir geworden, eben auch mit HDs. Warum soll ich die vielen positiven Effekte denn auf HDs nicht nutzen? Es macht auch keinen Sinn, übermäßig viel auf denen herum zu schreiben, nur, weil sie vielleicht länger halten.
SSDs werden immer zuverlässiger und langlebiger. Ich denke, sie sind auch sehr viel einfacher in der Herstellung und deshalb mit mehr Profit zu verkaufen. Vielleicht will man das dem Anwender gegenüber besonders positiv darstellen und mit einem speziellen Dateisystem verknüpfen, das andere dann auch nicht anbieten können. Vorstellbar ist das jedenfalls.
Auch mein MacBook (der aber inzwischen quasi nicht mehr genutzt wird), war bereits mit einer SSD ausgestattet und hatte vor FreeBSD bereits TRIMM eingeschaltet, ansonsten aber das vollkommen unveränderte System darauf und auch da lebt die SSD noch.

Also, ich lese die Begründungen und unterschiedlichen Blickwinkel hier mit sehr großem Interesse und möchte ja auch dazu lernen und Fehler der Vergangenheit nach Möglichkeit erkennen und korrigieren. Aber so viele Fehler können das nicht gewesen sein, wenn die älteste SSD nach so vielen Jahren noch immer läuft.
Natürlich könnte ich mir auch noch etwas besseres vorstellen, aber ich muss damit leben, was ich habe und kaufen kann und sage mit einem meiner liebsten Sprüche: das ist gut genug für mich. Die heutigen Dateisysteme in Freien Systemen scheinen mir allesamt geeignet, sie für SSDs zu anzupassen, dass sie gut und lange damit funktionieren.
 
Nur weil ich z.B eine Datei nicht wirklich lösche sondern z.B aus meiner Dateisystemtabelle entferne oder anders zuteile bedeutet das ja nicht das eine Firmware dann nicht doch irgendwas löscht oder umschreibt.

Nun, das ist TRIM. Bei einer Festplatte wird üblicherweise nur der Eintrag zur Datei gelöscht. Das Dateisystem weiß dann, dass die zugehörigen Sektoren auf der Platte wieder frei genutzt werden können und überschreibt sie bei Bedarf wieder. Das geht bei SSDs nicht. Bevor ein Bereich im Flash-Speicher neu beschrieben werden kann, muss er zunächst wieder in den Ursprungszustand gebracht werden. Mittels TRIM Befehl kann das Dateisystem nun der SSD die Sektoren nennen, die nicht mehr benötigt werden, damit das die SSDs schonmal weiß und dies in der Idle Zeit oder sonst wann machen kann. Gemacht werden muss das so oder so. SSDs oder Dateisysteme ohne TRIM neigen bei hoher Auslastung dann gerne dazu extrem langsam zu werden, weil eben der Bereich erst wieder in Ordnung gebracht werden muss, bevor man schreiben kann. Mit der Lebenszeit hat das aber nichts zu tun. Nur mit der Performance.

Was die SSD Firmware im großen und ganzen macht ist aber durchaus bekannt. Auch normale HDDs haben eine solche Firmware. Auch die werden nicht einfach ans Betriebssystem "durchgereicht".
 
Nun gut ...

Soweit ich es verstanden habe, gibt es bei den SSDs zwei Speichertypen
Einmal MLC und TLC.
Die mlc, also Multi - Level - Cell verkraften wohl so um die 3000 Schreibzyklen - und die ( wohl billigeren ) TLC halten nur 1000 schreibzyklen

Ist ja irgendwie - und auf dem 1. Blick - nicht
so wirklich viel.

Dies nur mal so als Kontrast zum Tenor der meisten Beitäge - und zur hier gestellten Frage: „ was ist so schlimm an schreibzugriffen?“

(Mir ist schon klar, dass die Firmware der SSDs dafür sorgt, dass das Schreiben einigermaßen gut auf den kompletten Speicher verteilt wird ... und viel Magie drin ist ) ... aber die Physik lässt sich auch nicht mit Magie austricksen
 
@Vril
Nein das sicher, aber Tests haben bei den MLC zb. Samsung 840 PRO laut Hersteller TBW: 73TB im TEST über 1 PB Schreibzugriffe gehalten.
Also würde ich mal behaupten das eine Samsung 850 EVO TBW: 75 TB
bestimmt über 400 TB schaffen könnte, was erstmal für 2-3 Jahre selbst für einen Server langen dürfte.
Plannst du dann noch Over-Provisioning von 20 % ein dürfte selbst die Evo die 1 PB erreichen.
Theoretisch wenn nichts anderes kaputt geht.:rolleyes:

Viele Grüße

Jörg
 
Die mlc, also Multi - Level - Cell verkraften wohl so um die 3000 Schreibzyklen - und die ( wohl billigeren ) TLC halten nur 1000 schreibzyklen

Ich würde einfach auf einen besser greifbaren Wert schauen: TBW (Terabytes written).
Eine Samsung SM843T kommt z.B. auf 3800 TBW (random), eine 850 PRO 512 GB schafft 300 TBW (random).

Das sind Werte, die bekommst du auf dem Desktop vielleicht nicht mal in 5 Jahren hin.

Rob
 
eine meiner beiden kleinen SSD ist eine Kingston gewesen und das andere weiß ich nicht mehr, vielleicht Intel? Die waren beide SSDs der ersten Generation, würde ich mal behaupten. eine davon ist nicht mehr in meinem Besitz und läuft aber immer noch und die andere benutze ich täglich. Der kleine Asus läuft mehrere Stunden pro Tag damit, hat ein UFS. Der normale Gebrauch ist Filme über Netz ansehen, Surfen, E-Mails lesen, ganz wenig schreiben. Halt, ich würde sagen, ein Standard Desktop-Betrieb. Die SSD läuft so seit Jahren. Angefangen mit einem GNU/Linux über ein OpenBSD 4.x und dann mit einem FreeBSD 7er. Wie lange das nun her ist, müsste ich selbst irgendwie recherchieren, aber die SSD dürfte knappe zehn Jahre alt sein und funktioniert eben noch immer.
Was wird großartig geschrieben im Betrieb?
Browser und Mail-Programme wollen immer etwas von der SSD, doch der meiste Schreibverkehr kommt beim Installieren von Programmen. Also auch beim Update und natürlich, wenn man neu installiert. Wie oft das vorkommt, hat man ein wenig selbst in der Hand, klar.
Aber alles zusammen genommen hat die SSD (eigentlich meine beiden alten SSDs) sehr viel länger gehalten, als ich auf Grund der Vorhersagen von damals befürchtet hatte.
Und seitdem sind SSDs wesentlich besser geworden und halten sehr viel länger.

Ich würde sie nicht zum Langzeit-Speichern wichtiger Daten UND gleichzeitig zum Betrieben eines stark geforderten Betriebssystems nutzen. Das wäre mir vielleicht zu heikel. Aber als Haupt-Laufwerk in einem Desktop-PC mit ganz gewöhnlichem Gebrauch, da habe ich gar keine Bedenken und zwar ziemlich unabhängig vom Dateisystem. Man kann alle auf minimale Schreibzugriffe optimieren, auch das alte UFS.
Wenn mein PC mal nicht mehr will und ich nen neuen kaufen muss, dann soll der mehrere SSD mitbringen, um darüber einen ZFS zu legen. Da bin ich mir heute ziemlich sicher.
 
Zurück
Oben