Wie nennt ihr eure zpools?

jamie

i use neovim btw
Hey, lange nicht aktiv gewesen, aber hier bin ich wieder - hoffe ihr habt den Jahreswechsel gut überstanden.

Kleine Frage:
Wie nennt ihr eure zpools?
Hintergrund: Ich will meinen Homeserver nun bald von Linux (Proxmox) komplett auf FreeBSD umstellen und brauche ein Namensschema für meine Platten:

1x 256 GB SSD (Fürs OS)
2x 2TB WD Red HDD (für Jails und 1-2 VMs)
1x 1TB HDD (Für weitere Backups und Sachen die nicht so wichtig sind ig ;) )

Was würdet ihr tun? :3

LG Jamie
 
zroot
zroot/jails
zroot/backup
zroot/datastore

Bin da auch langweilig. Der Vorteil ist aber, dass man seine scripts nicht auf jedem Rechner an die individuellen zpool-Namen anpassen muss.
 
Zuletzt bearbeitet:
Hostname_Zweck{Nummerierung}, also z.B. sonne_root, sonne_daten oder sonne_daten01
Warum? Wenn ich Snapshots zwischen Hosts schiebe, kann ich sicher sein, dass ich die richtige Richtung wähle :-)
 
2 ssds (mirror) für system -> system.
4 hdds (raidz) als datengrab -> discworld
Würde ich unterschreiben, allerdings bekommt bei mir das Datenbgrab nen raidz2 verpasst. Ich hatte mir mal die "Mühe" gemacht die Zeiten fürs resilvern zu ermitteln (unter optimalen Bedingungen). Da wurde mir ganz schnell ganz schlecht. :)
Klar ist das gleich nen Zacken teurer, aber wenn mir die Daten beim resilvern abrauchen, ich alles neu aufsetzen muss und der Rest der Bande mir beim Recovery wartend auf den Zeiger geht...
 
NICHT zroot!
Warum? Weil ich wahrscheinlich ein wenig dumm bin und leicht in die Falle Tappe. So hatte ich mir vor Zeiten meinen zroot auf eine externe Platte gebeamt und diese danach importiert: gleiche Namen, gleiche Mountpoints: es dauerte gar nicht sooo lange, bis ich merkte, dass da was schief läuft.
Wenn ich jedem root-Pool in jedem Gerät einen eigenen und eindeutigen Namen gebe (etwa Hostname-root, wie zuvor schon mal vorgeschlagen), ist für mich die Gefahr geringer, durch Verwechslungen mit Namensgleichheit in Schwierigkeiten zu geraten.

Ob mirror oder raidz: wenn wichtig, immer Redundanz >= 2!
Ich glaube (man mag mich belehren), dass mit dieser Vorgabe ein raidz dann erst ab 4 Geräten Platten Sinn macht.

edit: Geräten zu Platten
 
Raidz macht ab 3 Platten Sinn, da dann eine Ausfallen kann ohne Datenverlust bzw. (um Datenverlust geht es ja nicht, da raid != Backup) ohne Downtime.

Ich bin was Benennung betrifft auch sehr unkrativ, meine Pools heißen idr. "data" manchmal auch "pool" oder "mypool". Ich habe aber auch nie das System auf nem ZFS, daher stellt sich die Problematik mit "zpool" für nich nicht :D
 
Den Platten (bzw. den 4k-aligned Partitionen) in meinen vDevs gebe ich als "Namen" (=glabel) die Seriennummer der jeweiligen Platte. Dazu ein ausgedrucktes Schema welche Platte in welchem Schacht ist. Dadurch ist es vollkommen egal and welchem Port (daX / adaX) oder welches sonstiges Namensschema grade genutzt wird. Wenn eine Platte einen Fehler auswirft, weiß ich so sofort nach welcher Platte ich schauen muss. Genauso kann ich per USB von einem Notfallsystem booten und weiß hinterher trotz verändertem GPTID/daX/adaX oder wasweißich Schema welche Platte sich hinter welchem Bezeichner grade versteckt.

Poolnamen werden nach Aufgabe bzw. Hostnamen verteilt: Dumpster, Backup, (dump|back)Boot, (dump|back)Root, (dump|back)DataX usw.

Da du nicht genug Platten hast um vernünftig Ausfälle abzufangen, würde ich empfehlen zumindest bei den wichtigen Datasets "copies=2" oder gar "copies=3" zu setzen. Damit wird jeder Datenblock im Dataset zwei bzw. dreimal auf dem Medium abgespeichert. Falls irgendwo ein Sektor kaputt geht oder sonsige Lesefehler auftreten kann ZFS den automatisch beheben und man muss nicht direkt immer ein Backup einspielen.
 
Zurück
Oben