RAID5 auf 4x6TB aber eine ist 4Kbyte kleiner

dettus

Bicycle User
Hallo.

Streng genommen ist das eine Debian Frage. Aber ich vertraue dieser Runde mehr als anderen.
Folgendes: Auf der Arbeit habe ich heute einen dicken Server aufgesetzt. Der hat vier Einschuebe fuer Festplatten. Und weil noch 4 6TByte baugleiche platten vom gleichen Hersteller rumlagen habe ich die eingebaut.

Also 24TByte Brutto. Nice!
RAID5 drauf, dann bleiben noch immer 18TByte uebrige.

JETZT habe ich aber gemerkt dass eine von den Platten tatsaechlich einen Sektor weniger hat. (Warum auch immer) Sie ist also 4KByte kleiner.

Ist/Wird das ein Problem oder bin ich da paranoid?
 
Kann man problemlos machen, die kleinste Platte gibt den Ton an. Rein vom Speicher her wird das nie ein Stock in den Speichen geben.

Ich würde aber dennoch genau nachschauen, was es damit auf sich hat.
Bereits zuviel kaputte Sektoren, dass es die Kapazität drückt? Kauf Ersatz und richte das RAID neu ein, denn dann wirst du eh bald eine Platte nachkaufen müssen.

Unterschiedliche Firmware? Kann Probleme beim normalen Betrieb oder erst beim rebuild machen, muss aber nicht. Ich würde es nicht erst austesten wollen, sondern gleich alle auf den gleichen Stand flashen. Stichwort TLER bei SATA ->

Doch unterschiedliche SerieA zu SerieB? Z.B. nur Hälfte an Cache? Muss man sich überlegen, ob man mit den Auswirkungen leben will...je nachdem.
 
Tja lustig wird es nur, wenn später eine weitere Platte daher kommt, welche nochmals weniger Sektoren hat. Aber da muss man halt darauf vertrauen, dass das klappt :D
 
Das macht der Installer im übrigen genauso wenn man zfs als Dateisystem wählt - ok etwas in dem Fall sind es "nur 580K", aber kommt aufs gleiche hinaus.
Code:
# gpart show ada0
=>         40  11721045088  ada0  GPT  (5.5T)
           40         1024     1  freebsd-boot  (512K)
         1064          984        - free -  (492K)
         2048      4194304     2  freebsd-swap  (2.0G)
      4196352  11716847616     3  freebsd-zfs  (5.5T)
  11721043968         1160        - free -  (580K)
 
Das macht der Installer im übrigen genauso wenn man zfs als Dateisystem wählt
wenn es um einen reinen Daten-Pool geht, muss(möchte) man den ja von Hand anlegen.
Generell kann man ein komplettes device einem Pool hinzu fügen, aber, wenn man solche Sachen wie oben und Dinge wie Allignement selbst bestimmen möchte, dann legt man am Besten seine Partitionen entsprechend selbst an. Denke ich zumindest. Dabei nehme ich inzwischen "großzügig" 1M als Allignement bzw als Restgrößen vor und hinter den Partitionen, nicht 4k, nicht 256k, gleich 1m.

Die Frage ist nun ja, wie der Raid in Debian verwirklicht wird und was dabei möglich ist. Als reiner SW-Raid sollte es bequem möglich sein, die Partitionen anzulegen und dann zusammen zu fassen.
 
Ich habe gemerkt, dass Debian sogar Partitionen VERLANGT. :)
In meinem ersten Versuch hatte ich das RAID ueber die Festplatten gelegt:
Code:
mdadm --create /dev/md0 --level=5 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
waere richtig gewesen. Ich habe aber /dev/sda /dev/sdb /dev/sdc /dev/sdd genommen. Und das hatte dazu gefuehrt dass ich Probleme nach dem Neustart hatte. Naja...
Jetzt denke ich darueber nach, dass 3 Platten eigentlich ausreichend sind. Die vierte nehme ich als Spare/Backup. Ist ja auch schoen :)
 
Hattest du da das System auch drauf installiert oder sind die vier Platten nur zusätzliche, für Daten?
Dann hätteste in diesem Fall auch gut ZFS nehmen können - da ordnest "ganze" Platten zu.
 
Ich würde die Partition bei RAIDs wirklich nur so groß wählen, wie die Hersteller die Plattengröße auch versprechen. Das heißt 4 TB = 4'000 GB = 4'000'000 MB = 4'000'000'000 KB = 4'000'000'000'000 B. Alles was die Platte mehr bietet ist Bonus und nicht garantiert. Das kann je nach Platte stark schwanken.
 
Hattest du da das System auch drauf installiert oder sind die vier Platten nur zusätzliche, für Daten?
Dann hätteste in diesem Fall auch gut ZFS nehmen können - da ordnest "ganze" Platten zu.

Das RAID ist "nur" fuer Daten gedacht.
Fuer das System gibt es nochmal eine extra 1TB grosse SSD.
Von daher waere dein Vorschlag eine Beachtung wert.

Mit ZFS habe ich mich noch nicht beschaeftigt.
Werde ich nachher einen Blick drauf werfen. Anforderung ist leider auch dass der Rechner ein Linux faehrt. :(
 
Mit ZFS on Linux ist das eigentlich kein Problem mehr. Allerdings ist Debians Politik gegenüber externen Kernelmodulen ... nennen wir es mal problematisch.
 
Anforderung ist leider auch dass der Rechner ein Linux faehrt. :(
In so einem Fall hab ich schonmal spaßeshalber ein Proxmox installiert, auch wenn für den Einsatzzweck gar keine Virtualisierung vordergründig gefragt war - basiert auf Debian (Anforderung "Linux" erfüllt) und enthält schon seit einiger Zeit eine sehr gute moderne ZFS Integration (unabhängig von irgendwelchen Ideologien) :D

Mit ZFS habe ich mich noch nicht beschaeftigt.
Für deinen Fall (4 Platten als "RAID1") brauchst du eigentlich nur 2 Befehle zum einrichten (aus dem laufenden Linux heraus):

zpool create <poolname> raidz <device1> <device2> <device3> <device4>

und

zfs create <poolname>/<sharename>

(und ggf quotas und andere Settings wie mountpoint etc setzen - kann nachher auch noch gemacht werden über zfs set ...)
 
Zurück
Oben