Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Kannst du auch nicht, denn default istich konnte bisher nirgends eine Performanceverbesserung feststellen
primarycache=all
, was metadata bereits mit abschmatzt.none
mit metadata
vergleichen.secondarycache=all
, aber nur wenn man ein cache-device hat.WENN, dann musst dunone
mitmetadata
vergleichen.
primarycache=metadata
ist vor allem für VMs interessant. Genauer gesagt für die Datasets oder zvols, auf denen die Images liegen. Da der Gast seinen eigenen Dateisystemcache implementiert und daher die Nutzdaten selbst cacht, ist es für den Host ausreichend, nur die Metdaten im Cache zu halten. Ansonsten würde man Daten doppelt cachen und das ist Verschwendung.Das ist eher für die Abstimmung der Cache-Größe relevant. Der default ist 'all', also metadaten + nutzdaten. 'metadata' läßt die nutzdaten nicht im ARC, und 'none' läßt gar nichts im ARC.Nebenbei: hat jemand schon mal Metadaten im ARC gecached (zfs set primarycache=metadata) und irgend eine Performanceverbesserung festgestellt?
Sind das bytes?arc_meta_used 4 67526381736
arc_meta_limit 4 50652380160
arc_meta_max 4 68104972312
Wenn du möglichst viel Metadaten im ARC haben möchtest, musst du ebenso vfs.zfs.arc_meta_limit erhöhen. Standardmäßig ist dies 1/4 von arc_max.die sind doch alle im ARC, oder?
Ja, wäre sonst auch unsinnig.Werden bei =all auch Metadaten weggeworfen, wenn neue Daten in den ARC wandern?
Bevor man da SSDs kauft, maximiert man lieber den RAM. Ist oft teurer, bringt aber mehr.Der Server hat 128GB RAM
Genau das steuert arc_meta_limit. Damit wird nicht festgelegt wieviel metadaten in den ARC hineindürfen (weil ja eh immer alles erstmal in den ARC muss und dann mindestens solange drinbleibt wie es aktiv im Kernel referenziert ist) sondern nur wenns ans rauswerfen geht, was bevorzugt rausgeworfen wird.Ah das wusste ich nicht. Werden bei =all auch Metadaten weggeworfen, wenn neue Daten in den ARC wandern?
jepp.Sind das bytes?
Das stimmt im Grundsatz, kommt aber auf den Usecase an. Wenn ich zB eine Datenbank hab, dann muss die aktive Datenmenge auch ganz in den ARC passen, sonst gibts nur ein reihum-rausgeschubse und keine Performance. (Und wenn ich dafür genug memory hab, dann muss ich eigentlich nicht den ARC nehmen, sondern kann die Datenbank selber cachen lassen, die weiß ja besser was sie braucht).Bevor man da SSDs kauft, maximiert man lieber den RAM. Ist oft teurer, bringt aber mehr.
Wir verwenden essentielle Cookies, damit diese Website funktioniert, und optionale Cookies, um den Komfort bei der Nutzung zu verbessern.
Siehe weitere Informationen und konfiguriere deine Einstellungen