Einige Anmerkungen zu ZFS in Verbindung mit KDE

  • Thread starter Thread starter ralli
  • Start date Start date
R

ralli

Guest
Aus gegebenen Anlaß und weil es hier schon des öfteren diskutiert wurde, ob UFS oder ZFS zum Einsatz kommen solle, möchte ich folgende Beobachtung posten. Das relatviert auch Vieles, was meine Einstellung zu Desktops versus Wm oder Die Benutzung der unterschiedlichen Filesysteme UFS und ZFS anging. Möglicherweise ist das für den einen oder anderen hilfreich, sich ebenfalls neu zu entscheiden.

Meiner eigenen Aussage, das der Einsatz von ZFS mit 2 GB RAM nicht praktikabel sind, muß ich hier ausdrücklich widersprechen, weil aktuelle Erfahrungen und Beobachtungen beweisen, das ich diese in dieser Form nicht aufrecht erhalten kann.

Das mehr RAM immer komfortabel ist, ist ja eine Binsenweisheit, die zu jeder Zeit gilt.

Nachdem sich bei mir verschiedene WM und Desktop im praktischen Einsatz bewähren mußten, dürfte jetzt wohl eine endgültige Entscheidung gefallen sein.

Alles hat ein Für- und Wider, alles Vor- oder eben auch Nachteile. Was das Richtige ist, muß jeder für sich selbst herausfinden.

Den Einsatz von eines WM wie bei mir jwm oder openbox bin ich leid, weil dann doch das Allermeiste nachinstalliert werden muß und nicht die gesammte Palette an Funktionen bereit gestellt wird, die ich für meine tägliche Arbeit benötige. Als Beispiel nenne ich mal Webdav, was nicht jeder Dateimanager beherrscht oder unterstützt.

Bleiben verschiedene Desktop zur Auswahl wie Gnome, KDE und XFCE. Die besten Erfahrungen habe ich mit KDE gemacht, weshalb ich mich auch dauerhaft dafür entschieden habe. Es ist nicht nur ein kompletter Desktop, sondern es sind einige Blockbuster an Software, die ich nicht mehr missen möchte, wie k3b oder digikam für die Photoverwaltung. Und nun kommt der ausschlaggebende Punkt, der meine Entscheidung für KDE und ZFS wesentlich beeinflußte.

Beim Testen der verschiedenen Desktops fiel mir die unterschiedliche Speicherbelegung nach dem Starten auf. Das das nicht unbedingt vergleichbar ist, ist mir schon klar, weil ja auch unterschiedliche Dienste gestartet werden.

Dennoch gibt es gravierende Unterschiede, die ich dem unterschiedlichen Speichermanagement von WM's und den verschiedenen Desktops zuordne, die für mich aber weder praktikabel noch akzeptierbar sind.

Beim Gnome Desktop mit ZFS ist der Resourcenhunger unstillbar. Bereits nach wenigen Minuten wird der RAM Bereich fast zugemüllt und belegt dann nicht selten bis zu 80% des Arbeitsspeichers. Und da dachte ich bisher, das ZFS der Übeltäter wäre, was nach meinen aktuellen Beobachtungen jedoch völlig falsch sein dürfte.

Kommt der KDE Desktop mit ZFS zum Einsatz, sieht das schon gänzlich anders aus. Selbst nach mehreren Stunden Arbeit komme ich selten bis überhaupt nicht auf eine RAM Auslastung von 500 bis 600 MB, was ja 25 bis 30 % meines gesammten Arbeitsspeichers bedeutet. Bei dieser Kombination gibt es kaum Ausreißer oder Schwankungen. Warum das so ist, kann ich mir mit meinem begrenzten technischen Wissen nicht erklären.

Das einzige was ich nach einer KDE Vollinstallation immer als erstes mache, den Akonadi Server zu deaktivieren und Nepomuk als semantischen Desktop auszuschalten, weil ich beides nicht benötige. Und Animationen brauch ich auch nicht, das entlastet natürlich die CPU schon erheblich.

Vielleicht kann mir oder uns das einer unserer Experten erklären, das wäre toll.

Bei neueren Rechnern mit ausreichendem RAM ist das natürlich alles kein Thema.

Deshalb zieh ich jetzt eindeutig ZFS in Verbindung mit KDE dem UFS Dateisystem vor, weil mir der Sicherheitsaspekt doch höchte Priorität genießt.

Und wenn ich dann in Zukunft einen neuen Rechner habe, dann habe ich mich bereits mit ZFS vertraut gemacht und fange nicht von vorne an.

Möglicherweise ist das geschriebene hier für einige völlig belanglos, mir war es aber wichtig, diese Beobachtung und Erfahrung mit Euch zu teilen.

Im Einzelfall muß natürlich jeder selbst entscheiden, welchem Dateisystem oder Desktop er den Vorzug gibt. Auch WM haben durchaus eine Daseinsberechtigung, sind allerding in ihrer minimalsten Ausprägung und ihrem Leistungsumfang dann doch sehr spartanisch
 
Ich habe hier einen i7 mit 32GB RAM und ZFS. Mit MATE Desktop sind nach dem Login knapp 1GB Speicher belegt.
Bisher konnte ich nicht sehen, daß ZFS oder ein DE hier gierig Speicher frisst. Und selbst wenn, dafür hat man den RAM ja.
Wäre der ständig frei hätte man Geld vergeudet.
Nach längerem Arbeiten mit DBs und VMs steigt wohl der Grundbedarf an Speicher durch ZFS. Wenn ich vor dem Logout
alle Anwendungen beende, ist der Speicherverbrauch immer noch bei einigen GB. Da wird wohl einiges gecached.
Aber dafür ist der viele Speicher ja da.
Ich denke, solange man nicht große Datenmengen erzeugt, kommt man mit 2GB und ZFS wunderbar aus. In einigen VMs habe ich
diese Konfiguration ohne Probleme.
 
Wieviel RAM belegt ist, ist doch total egal. Wichtig ist nur was passiert, wenn die Maschine wirklich unter Last ist und was dann mit dem RAM passiert. Wird etwas freigegeben oder wird nur stumpf geswappt?

Also, bevor du solche Aussagen bzgl. Speicherhunger trifft, musst du auch richtig testen und dokumentieren und keine gefühlten Realitäten in Prosaform verfassen. Das führt zu nichts, höchstens, dass ein Neueinsteiger denkt, dass ein Prozess, der viel RAM belegt immer schlecht programmiert ist.
 
Hallo Ralph,

danke für Deine Einschätzung, die Du auch begründest. Natürlich hängt die Desktop-Wahl auch sehr mit persönlichen Vorlieben zusammen, der LU-Chefredakteur Jörg Luther etwa mag schnörkellose Tiling-Window-Manager, und wird trotz Würdigung des KDE-Projektes vermutlich KDE4 oder Plasma5 nicht auf seinem Desktop-PC bevorzugen.

Seit S.u.S.E 5.3 nutze ich KDE, und auch unter FreeBSD gehört KDE4 (und hoffentlich bald auch Plasma5) zu meinen bevorzugten Desktop-Umgebungen. Und auch mit ZFS läuft KDE4 gut. Diese Klischee mit dem Ressourcenverbrauch von ZFS, dem ich auch für kurze Zeit aufgessen bin, hat meiner Einschätzung nach unter zwei Szenarien seiner Berechtigung:
1. Deduplikation
2. Verwaltung sehr großer Festplattenbereiche (1GB Ram pro TB bei ZFS als Faustregel)

Für ein Setup auf einem Desktop-Rechner (eine SSD hat oftmals nicht mehr als 256 GB) haben diese Szenarien keine Relevanz, und vermutlich kann man selbst mit 2 GB DDR2 Ram ordentlich unter ZFS arbeiten.

Daher meine Zustimmung zu Deinem Beitrag, ergänzend füge ich noch hinzu (was auch Geschmacksache ist): Wenn ich KDE4 plus deutsches Sprachpaket samt KDM nutze, meine Nutzer .login_conf auf Deutsch und UTF-8 stelle, dann ist KDE4 und auch weiteres auf Deutsch.

Nun nehme ich stattdessen xfce4, mit angepasster .login_conf ist auch alles auf Deutsch. Dann installiere ich jedoch Slim hinzu, ein Login-Manager ist ja auch ganz nett. Danach ist xfce4 auf Englisch. Wenn ich mir dann die Konfigurationsdatei von Slim anschaue, sieht das nach längerer Bastelarbeit aus, um Slim ordentlich anzupassen. Sorry, aber da logge ich mich bei xfce4 lieber per startx ein, da kommt nämlich nur ein
Code:
exec startxfce4
in die .xinitrc und xfce4 funktioniert auf Deutsch. Auch wenig Freude macht das Gespann wdm plus xfce4. Dass in /etc/ttys ein Eintrag modifiziert werden muss, damit wdm automatisch startet, ist noch relativ leicht zu finden. Aber dann wird es nervig. Möchte man sich nur abmelden, klappt das zwar, ein weiterer Startversuch von xfce4 führt bei mir reproduzierbar zu einem leeren Bildschirm mit Mauszeiger, xfce4 startet nicht wieder durch und nur durch einen Neustart des gesamten Systems ist wdm dann wieder bereit, einmalig ein Login nach xfce4 zu "gestatten". Vielleicht ist das auch ein Bug in FreeBSD 11 beta, ich werde mal ein FreeBSD 10.3 Installationsmedium nehmen und vergleichen.

Meine xfce4-Installationen sehen oft nach kurzer Zeit wie folgt aus: Thunar, nein bitte nicht, ich möchte dolphin. soundconverter passt besser zu xfce4, aber soundkonverter kann wesentlich mehr, also kommt das noch dazu. Auch wenn digikam4 einige ärgerliche Bugs mit Inpainting hat, mag ich es lieber als Shotwell oder ähnliches. Und wenn ich denn mal brennen möchte, und nachdem ich kürzlich heraus gefunden habe, dass ich durch ein Deaktivieren von musicbrainz diesem Programm die Absturzallüren abgewöhnen kann, nehme ich k3b lieber als xfburn, brasero o.ä. Und okular ist doch sehr schön, also kommt das auch noch dazu ... und dann kann ich gleich KDE4 installieren. :)

Viele Grüße,
Holger
 
Also ZFS gibt bei Bedarf zwar wieder RAM frei, aber der dafür verwendete Backpressure Algorithmus braucht etwas Zeit um zu reagieren. Ein schönes Beispiel um ZFS und das Kernel VM Subsystem zu quälen ist es einen im Verhältnis zum installierten RAM großen Snapshot einer VirtualBox VM zu starten. Dabei versucht VirtualBox ruckartig sehr viel RAM zu verwenden. In diesem Zustand hilft es dem Kernel VM Subsystem genug Swap zur Verfügung zu stellen. Der Kernel kann solange er genug Swap hat das physikalische RAM überbuchen ohne zu riskieren am Ende nicht genug Speicher zu haben. Stattdessen wird es halt "nur" lahm während der die Kiste am Swappen ist.
 
Also, bevor du solche Aussagen bzgl. Speicherhunger trifft, musst du auch richtig testen und dokumentieren und keine gefühlten Realitäten in Prosaform verfassen. Das führt zu nichts, höchstens, dass ein Neueinsteiger denkt, dass ein Prozess, der viel RAM belegt immer schlecht programmiert ist.

Hallo @zuglufttier,

dazu sage ich einfach mal ein nicht böse gemeintes "Nö!" :D

Ralph hat meines Erachtens ganz deutlich gemacht, dass er als technischer Laie seine Einschätzungen mitteilt und sogar um weitere Erläuterungen von Experten gebeten. Er hat somit seine sogenannte "Prosa qua gefühlter Einschätzung" auch als solche kenntlich gemacht. Dass dies keiner Verifikation qua verschiedener Messreihen entspricht - und selbst die passen nicht immer zum Kontext - dürfte doch jedem klar sein.

Die Kombination "Analyse + Prosa in Form von guter Dokumentation", die auch anfängerfreundlich ist, mag ich übrigens ausgesprochen gerne :)

Viele Grüße,
Holger
 
es ist niemandem geholfen, wenn allerorts mit nicht bzw. schlecht fundierten Vermutungen um sich geworfen wird. Interpretationen ohne genügend Hintergrundwissen sind gerade bei solchen Themen mit unglaublich vielen Variablen nur selten aussagekräftig :-)
 
Bitte an alle, sachlich zu bleiben. Hier liegt wohl mehr als nur ein Mißverständnis vor. Ich habe meine persönlichen Erfahrungen gepostet. Die ermittelten Messwerte sind Fakten und keine Vermutungen. Eingangs hatte ich den Gnome Desktop und den KDE Desktop mit ZFS aufgesetzt. Bei Gnome war der Arbeitsspeicher wie bereits beschrieben, nach relativ kurzer Zeit fast bis am Anschlag, bei KDE nach mehreren Stunden bei ca 20 bis 25 %. Meine anfängliche Einschätzung war, das ZFS für meine HW Ausstattung nicht praktikabel ist. Und ich habe ausdrücklich darauf hingewiesen, das das nicht bewiesen ist und ich daher eine Expertenmeinung erbeten habe. Nichts mehr und nichts weniger. Wem mein Schreibstil nicht gefällt, der möge mich bitte ignorieren. Aber ich bitte auch darum, zukünftig nur konstruktiv zu antworten und nicht abwertend, wir sind hier nicht im Kindergarten! Wer nichts hilfreiches beizutragen hat, der wird ja nicht gezwungen, zu antworten. Ich habe lediglich festgestellt, das es so ist und kann mir auf grund fehlenden Fachwissens nicht erklären, warum das so ist. Wenn es jemand sachlich fundiert erklären kann, bitte sehr, nur zu und herzlichst Willkommen! Ich bitte erneut ausdrücklich darum.

Danke Holger, für Deine Solidarität.:D
 
Sorry, aber das ist doch kompletter Unfug!
Was hat denn KDE mit ZFS zu tun?

Gnome unter FreeBSD nutzt 80% des RAM?
Nun, es ist doch gut wenn ein OS oder eine Software die Hardwareresourcen ausnutzt!

Man kann es nämlich auch so betrachten ;-)

Grüße Walter
 
Die ermittelten Messwerte sind Fakten und keine Vermutungen.
Das schon, sie stehen allerdings in keinem Zusammenhang! Was heißt es denn, wenn ein Programm 80% deines Speichers benutzt? Erstmal heißt es nämlich gar nichts und du kannst froh sein. wie Vril auch schon schrieb, dass sich das Programm soviel RAM nimmt wie es möchte, damit diverse Funktionen direkt geladen sind bevor sie wirklich genutzt werden.

Was willst du denn auch mit den ungenutzten 20% machen? Wenn ein anderes Programm RAM benötigt, dann kümmert sich dein Betriebssystem schon darum. Wie gut oder schlecht das funktioniert hängt natürlich von Programm oder Betriebssystem ab. Ich denke, du hättest eine sehr ähnliche Erfahrung auch ohne ZFS gemacht.
 
es ist niemandem geholfen, wenn allerorts mit nicht bzw. schlecht fundierten Vermutungen um sich geworfen wird. Interpretationen ohne genügend Hintergrundwissen sind gerade bei solchen Themen mit unglaublich vielen Variablen nur selten aussagekräftig :-)

Deswegen möchte ralli das Hintergrundwissen haben, damit er sich dieses von ihm beobachtete Phänomen erklären kann.;)
 
gvfsd ist bei mir der Dämon, der Systemlast produziert und Speicher frisst. Er wird (vermutlich) mit nautilus gestartet, das wiederum eine Abhängigkeit von evince und brasero ist (obgleich es da nicht gebraucht wird) und aus irgendeinem Grund benutzt firefox dann automatisch den nautilus und damit wird im Hintergrund bisweilen dieses gvfsd gestartet und fängt an, meine Ressourcen zu blockieren.
Da liegt vermutlich ein Bug vor. Wir hatten in der Vergangenheit ähnliches Verhalten gelegentlich auch bei anderen Anwendungen.
(Firefox zu ändern oder meine mime.list umzubauen, war bislang nicht erfolgreich, doch das ist Grund für einen anderen Thread).

KDE nutze ich seit frühen 4er Versionen nicht mehr.
Gelegentliche Tests mit GNOME konnten mich nie überzeugen. Heute stellt MATE eine gute Alternative dar, die mich auch beeindruckt hatte.
KDE startet eine Unmenge an zusätzlichen Diensten (damals), von denen ralli ja einige abgeschaltet hat. Um das mit meinen laienhaften Worten zu beschreiben: es baut sich da quasi ein eigenes System auf dem Betriebssystem auf. SO kann KDE nicht nur einige tolle Sachen, es hat auch eigene Einstellungen für Sprachen oder Monitor-Auflösungen oder Tastaturen und manches mehr. Das sind Einstellungen, die eigentlich im Betriebssystem oder im X-Server gesetzt werden müssten, die KDE aber übernimmt. Schon daraus folgt, dass KDE etwas sehr mächtiges ist. Wer sich darauf verlassen will, kann sicher sehr gut damit leben. Hat mehrere DE im Gebrauch, sollte man wenigstens per DE einen eigenen User anlegen, weil ich manche Settings schon mal ins Gehege kommen können und trotzdem wird vermutlich das ein oder andere Alternativ-DE sich unerwartet verhalten, weil einfach Grundkonfigurationen des Betriebssystems fehlen. KDE hatte die ja nicht gebraucht.
Viele KDE-lastigen Anwendungen können zwar in anderen Umgebungen auch benutzt werden, sie starten aber unter Umständen auch eine ganze Reihe von zusätzlichen Diensten und aus diesem Grund versuche ich die zu meiden und etwa kein digikam oder gwenview zu benutzen. Die Alternativen sind manchmal schwierig zu finden und laufen vielleicht nicht so rund. Ob man damit auskommt, hängt natürlich stark an den eigenen Vorstellungen dessen, was man denn da machen möchte.

Für mich selbst kann ich sagen, dass ich froh bin mit meinem OpenBox und dass ich auf KDE, GNOME oder MATE verzichten kann. Würde mir dabei etwas fehlen, dann wäre ich ja schon gewechselt. Stattdessen komme ich inzwischen mit meinem Desktop besser zu Recht, als zuvor mit KDE. Das ist auch immer eine Frage der Gewohnheit. Die Tastatur-Kürzel, die ich in KDE benutzt hatte, konnte ich nicht übernehmen, aber ich konnte gleiche oder ähnliche neu erstellen und arbeite deshalb nicht langsamer, eher schneller. Dass der Desktop selbst keine langen Initialisierungs-Stadien durchlaufen muss, gefällt mir auch gut, obwohl das System ja nur selten neu startet.

Einen direkten Vergleich kann ich nicht bieten, aber Tests mit bonnie und ZFS zeigen bei mir die bestmögliche Performance der Festplatten. Da wird also nichts gebremst durch ZFS. Mein System reagiert etwas träger, als das alte mit UFS, aber ZFS kann ich dafür nicht verantwortlich machen. Die Ursache finde ich aber auch nicht. Mir scheint die Grafik nicht sauber unterstützt zu werden, speziell OpenGL. Aber auch das wäre ein anderes Thema.
Bei ZFS darf man nicht vergessen, dass OpenZFS in den letzten Jahren eine grandiose Entwicklung hingelegt hat und das Dateisystem wesentlich performanter ist, als zu Beginn und wohl noch bei SUN. Möglicherweise halten sich da noch manche Gerüchte aus der Gründerzeit. Am Besten testet man und am Besten vielleicht wirklich auf schwacher HW. BTRFS etwa hat mich eindeutig überrascht, wie schmal das laufen kann. Aber auch hier wirkte das System etwas träger, als mit einem EXT. Es geht ja nicht nur darum, Speicher frei zu haben. Der muss auch sinnvoll benutzt und wieder frei geräumt werden. Ohne Messwerte liefern zu können, scheint mir ZFS mehr Speicher zu besetzen und damit müssen neue Anwendungen sich womöglich erst Platz schaffen.

Thema Messwerte. Da würden wir sicher alle gerne mitmachen, aber was kann man da machen?
Ein Programm mit time starten? Nach meiner Erfahrung sind die Werte sehr unzuverlässig, die da zurück kommen. bonnie sagt nur was über die Plattenperformance (und würde durch ein sehr schlechtes Dateisystem dann ausgebremst). top zeigt Speicherauslastung, aber nicht, wie der genau verteilt ist. Also, wenn ich wüsste, wie ich was machen kann, würde ich das gerne mal testen und veröffentlichen.
 
Hallo,

bei allen Aspekten, die hinsichtlich der Technik angesprochen wurden, finde ich es immer ein wenig Schade, wenn man darüber vergisst, sich einmal die Argumentationslogik anzuschauen.

Es gibt ja den Witz, dass man eine eigene Meinung vertritt und die bitte nicht durch Tatsachen gestört wissen möchte, aber der Text von @ralli ist das Gegenteil davon. Der Text ist eine Beschreibung von gemachten Beobachtungen, ergänzt durch eigene Vorlieben, die der Autor so deutlich als solche gekennzeichnet hat, dass es mich wundert, wie so etwas zu überlesen ist. Davon abgesehen lädt der Text zur weiteren Diskussion regelrecht ein, die Fragen von @ralli sind hier kein rhetorisches Mittel, er möchte Beobachtungen erklärt bekommen, aber hier antworten einige so, als hätte @ralli diese Erklärungen selbst qua Behauptungen geliefert.

Sorry, aber das ist doch kompletter Unfug!
Was hat denn KDE mit ZFS zu tun?
Nur weil @ralli in einem Thread das Gespann KDE4 plus ZFS nennt, heißt das noch lange nicht, dass er eine Kausalität zwischen beiden zieht, wie etwa: Unter ZFS läuft gerade KDE besonders gut, oder ähnliches. Wer aufmerksam liest, müsste wissen, dass @ralli gemessen an modernen Office-PCs ausgesprochen schwache Hardware hat, und dafür ausloten möchte, was da zukünftig in Frage kommt. Ganz davon abgesehen revidiert er ein früher selbst vertretenes Vorurteil, was ZFS und Ressourcenverbrauch angeht,

Und nun einmal zu hier sonst noch gemachten Äußerungen, da habe ich nämlich Klärungsbedarf. Man liest ja oft, dass nur genutzer Ram guter Ram ist, ich weiß nun im Groben, dass man bei der Speicherbelegung unterscheiden muss zwischen bufferd, gechached u.s.w.
Was willst du denn auch mit den ungenutzten 20% machen? Wenn ein anderes Programm RAM benötigt, dann kümmert sich dein Betriebssystem schon darum. Wie gut oder schlecht das funktioniert hängt natürlich von Programm oder Betriebssystem ab. Ich denke, du hättest eine sehr ähnliche Erfahrung auch ohne ZFS gemacht.
Ja, genau, dass Betriebsystem muss sich kümmern, und zwar mehr, als wenn der Speicher noch komplett frei wäre. Wenn ich unter dem gleichen Betriebsystemkern einmal mit KDE4 eine Gesamtbelegung von 30% des Ram habe, und unter GNOME 80%, und ich möchte dann per make -j4 Code abarbeiten oder Audios von wav nach flac konvertieren, was auch einiges an Rechenleistung bedarf, muss sich das System im Fall von GNOME mehr kümmern, Ressourcen wieder frei zu machen. Wenn man dann die schwachen Hardware-Ressourcen von @ralli bedenkt, geht bei rechenintensiven Sachen der PC wohl wesentlich eher in die Knie bei einer Ram-Belegung von 80% als nur bei 30%, denn wenn die Systemlast rapide abnsteigt, kann eine noch so gute Speicherverwaltung auch nicht zaubern. Bitte mich hier nicht falsch verstehen, wenn das hier Unfug ist, was ich schreibe, dann möchte ich dazu gerne detaillierter Info zur Speicherverwaltung, aber bitte in Verbindung mit praktischen Anwendungsfällen.

Viele Grüße,
Holger
 
Deswegen möchte ralli das Hintergrundwissen haben, damit er sich dieses von ihm beobachtete Phänomen erklären kann.;)
Danke @juedan , Du bringst es auf den Punkt, genau so ist es. Ich möchte wissen, was hinter den Kulissen vor sich geht, um es zu verstehen.
 
Holger hat mich voll und ganz verstanden. Seine und @juedans Unterstützung hat mir richtig gut getan. :DDeshalb gebührt Ihm und@juedan nochmals mein ausgesprochener Dank. Mit der Speicherverwaltung von Linux habe ich mich bereits früher auseinandergesetzt. Und ich habe sie auch verstanden. Trotzdem wird es gute Gründe geben, das die Speicherbelegung der beiden angesprochenen Desktops so gravierend unterschiedlich ist. Niemals hatte ich die Absicht, ZFS zu diskreditieren. Ich setze es jetzt unter KDE ein und alles läuft sauber und rund. Selber bin ich weder lernresistent noch ignoriere ich gutgemeinte und konstruktive aufbauende Kritik. Die ist nämlich ausdrücklich erwünscht. Und letztendlich macht auch der Ton die Musik. Toleranz und Respekt gegenüber anderen Meinungen sollte selbstverständlich sein. Auch Fehler dürfen gemacht werden, sofern sie nicht immer wieder wiederholt werden und daraus gelernt wird.
 
Ich möchte wissen, was hinter den Kulissen vor sich geht, um es zu verstehen.
Das ist lobenswert! Aber dann glaube doch auch mal den Leute hier, die das teilweise beruflich machen anstatt ohne Beweise das Gegenteil zu vertreten :) Was ZFS angeht, hat sich in den letzten 2-3 Jahren so viel getan, da stimmt vieles was man im Internet so findet einfach nicht mehr. Das ist wie bei der pkg vs. Ports Geschichte.
Noch was, weil du mal erwähnt hast, das du in KDE immer das semantische Desktop Zeugs abdrehst: auch GNOME hat sowas. Nennt sich glaube ich Zeitgeist oder so. Um vergleichen zu können, müsstest du das natürlich auch abdrehen. Dann noch eine nach Speicherverbrauch sortierte top Ausgabe und man kann langsam sinnvolle Schlüsse ziehen.

So, genug des rants. Es scheint hier ja großen Bedarf daran zu geben, wie man den Speicherverbrauch eines FreeBSD Systems richtig deutet. Hier mal die Ausgabe von top von meinem Homeserver:

Code:
Mem: 7824K Active, 143M Inact, 7674M Wired, 24M Cache, 62M Free
ARC: 2508M Total, 1365M MFU, 495M MRU, 3999K Anon, 36M Header, 608M Other
Swap: 2048M Total, 431M Used, 1617M Free, 21% Inuse

free: unbelegter Speicher
cache: Dateien, die im Hauptspeicher gecached wurden.
active: Speicher, der von Anwendungen aktiv verwendet wird.
inactive: Speicher, der mal von Anwendungen in Verwendung war, aber nicht mehr benötigt wird und jederzeit genutzt werden kann.
wired: kann nicht in den Swap verschoben werden. IdR wohl hauptsächlich Kernel und ARC Cache. Auch Anwendungen wie in diesem Fall VirtualBox können Speicher so allokieren, dass er zum wired Memory gehört und daher nicht in den Swap wandern kann.

Der ARC: da gibt es zwei große Bereiche, MFU (most frequently used) und MRU (most recently used). Beide können bei Bedarf recht schnell - aber eben auch nicht sofort frei gemacht werden, wobei die Latenz im Gegensatz zu "einfachen" Dateisystemen dann sehr hoch ist. Da ist einfach viel mehr zu tun, unter anderem das ganze Copy-On-Write. Das ist der Grund, warum sich so ein System etwas "träge" anfühlen kann und man üblicherweise einfach mehr RAM empfiehlt.

Noch etwas fällt auf: Obwohl das System Speicher frei machen könnte, um nichts mehr in den Swap zu legen, passiert das nicht. Das System hat also Prozesse, die seit langem schlafen in den Swap gelegt und dafür lieber den ARC erhalten.
 
Danke Oliver für die informative Aufklärung. Das ist sicherlich nicht nur für mich interessant.
 
Speicherverwaltung ist leider ein höchst komplexes Thema. Das betrifft die Implementierung selbst und auch die Designentscheidungen. Als Mitte der 1970er Jahre die ersten Systeme mit virtueller Speicherverwaltung aufkamen, dauerte es etwa 5 bis 8 Jahre, bevor es die ersten wirklich uneingeschränkt benutzbaren Implementierungen gab. Bis das Thema wirklich durchdrungen war, hatten wie 1995 erreicht. Und bis heute gibt es einige grundlegende Schulen, wie man Speicher am Besten verwaltet:

  • VMS und das philosophisch sehr ähnliche NT, was ja modernen Windows zugrunde liegt, spielen auf Nummer sicher. Sie geben niemals Speicher heraus, der nicht zumindest durch Swap abgesichert ist. Das ist der Hauptgrund, weshalb man Windows nicht ohne einen minimalen Grundstock Swap betreiben kann. Der Vorteil ist, dass Entwickler davon ausgehen können, dass zugeteilter Speicher auch definitiv verfügbar ist. Der Nachteil ist, dass gerade auf hochbelasteten Systemen der Speicherbedarf praktisch endlos anwachsen kann, was entsprechende Mengen Swap benötigt.
  • Unix kommt ursprünglich aus der Welt der Minicomputer, wie zum Beispiel PDP oder später kleinen VAXen mit wenigen Speicher. Um dennoch viele, speicherhungrige Anwendungen ausführen zu können, setzt Unix traditionell auf Overcommit. Sprich, sie geben mehr Speicher heraus, als tatsächlich verfügbar ist und spekulieren darauf, dass nie aller Speicher genutzt wird oder zu einem späteren Zeitpunkt genügend Speicher verfügbar bleibt. Die Wette kann aufgehen, aber man kann sie auch verlieren. Verliert man sie, gibt es irgendwann wahlweise den Out of Memory Killer oder einen Segfault.
Linux macht in Standardeinstellung (man kann es durch eine Datei in /proc ändern) extrem aggressives Overcommit, malloc() schlägt unter Linux bis auf wenige Ausnahmen nie fehl. FreeBSD war früher ähnlich, ist aber ab FreeBSD 7.0 nach und nach deutlich konservativer geworden. Heute gibt FreeBSD in Standardeinstellung ähnlich wie Windows nur noch Speicher heraus, der durch Swap abgesichert ist. Es lässt sich durch das 'vm.overcommit' Sysctl ändern, in 'man tuning' wird es etwas genauer erklärt.

Als Literatur zu FreeBSDs Speicherverwaltung kann ich drei Dinge empfehlen:
Das Alles ist allerdings nur ein Teil der Geschichte. Für ein komplettes Bild muss man sich noch das Virtuelle Dateisystem (Die vfs_* Dateien in https://svnweb.freebsd.org/base/head/sys/kern/) und die Dateisysteme selbst anschauen.
 
Danke @Yamagi für die tieferen Einblicke, jetzt kann ich es etwas besser einordnen und verstehen. Die von Dir verlinkte Literatur zu diesem Thema werde ich mir anschauen.
 
Hallo @Yamagi,

gibt es dazu noch weitere Literatur, die speziell Linux und FreeBSD vergleicht? Ich habe beim Lesen hier mal aufgeschnappt, dass FreeBSD eher seine Stärken beim sequentiellen Schreiben hat, hingegen Linux mehr beim parallelen Schreiben u.s.f. Nun weiß ich nicht, inwiefern das einen Bezug zum Speichermanagement hat, als Laie auf diesem Gebiet, der allerdings an der Technik dahinter Interesse hat, finde ich solche Themen spannend.

Viele Grüße,
Holger
 
Das hängt alles miteinander zusammen. Zwar sind IO und Speicherverwaltung getrennte Bereiche, aber spätestens beim Dateisystemcache kommen sie wieder zusammen. Literatur zum Thema FreeBSD vs. Linux könnte ich jetzt auch nur googlen. Dabei muss man aber beachten, dass FreeBSDs komplette IO-Subsystem beim Sprung von 9.x auf 10.x komplett umgebaut wurde und viele Artikel dazu schlicht veraltet sein dürften.
 
Back
Top