Hallo, ich hab... mist gebaut
Hab hier einen kleinen FreeBSD server, im Betrieb seit 4 Jahren mit ZFS und 3 Platten (RaidZ1).
Nun hab ich - völlig gehypet von einem Freund - die Boot-SSD abgeklemmt, Unraid gebootet und die 3 Platten ins Array geladen (2x Daten, 1x Parity). Gefolgt von paar Docker installationen und einrichtungsversuche.. Unraid hat mich von Minute zu minute mehr enttäuscht.. der Rebuild der Parity platte hat bis ~30% stattgefunden. Auf den beiden Datenplatten wurden je ca. 80GB geschrieben.
Gefrustet Unraid Stick weg, Boot-SSD wieder angeschlossen und gebootet. Jetzt dachte ich, der Pool ist eh weg und wollte den Pool neu erstellen und das Backup zurückspielen.
zpool war da anderer Meinung:
Dann hab ich einfach mal Scrub angeworfen
ada2 war in Unraid die Parity Platte
Unten steht "No know data errors" - das heisst, es müssten alle daten noch da sein? Wie kann das sein? Das ZFS robust sein soll, wusste ich, aber das überrascht mich jetzt.. Was meint Ihr dazu?
Hab hier einen kleinen FreeBSD server, im Betrieb seit 4 Jahren mit ZFS und 3 Platten (RaidZ1).
Nun hab ich - völlig gehypet von einem Freund - die Boot-SSD abgeklemmt, Unraid gebootet und die 3 Platten ins Array geladen (2x Daten, 1x Parity). Gefolgt von paar Docker installationen und einrichtungsversuche.. Unraid hat mich von Minute zu minute mehr enttäuscht.. der Rebuild der Parity platte hat bis ~30% stattgefunden. Auf den beiden Datenplatten wurden je ca. 80GB geschrieben.
Gefrustet Unraid Stick weg, Boot-SSD wieder angeschlossen und gebootet. Jetzt dachte ich, der Pool ist eh weg und wollte den Pool neu erstellen und das Backup zurückspielen.
zpool war da anderer Meinung:
Code:
root@server:/home/nismo # zpool status
pool: storage
state: ONLINE
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://illumos.org/msg/ZFS-8000-9P
Dann hab ich einfach mal Scrub angeworfen
Code:
root@server:/home/nismo # zpool status
pool: storage
state: ONLINE
status: One or more devices has experienced an unrecoverable error. An
attempt was made to correct the error. Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
using 'zpool clear' or replace the device with 'zpool replace'.
see: http://illumos.org/msg/ZFS-8000-9P
scan: scrub in progress since Tue Dec 31 10:07:32 2019
1,74T scanned at 597M/s, 616G issued at 206M/s, 7,13T total
135G repaired, 8,44% done, 0 days 09:13:24 to go
config:
NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
diskid/DISK-WD-WCC4E0165273 ONLINE 0 0 0
ada2 ONLINE 0 0 2,15M
ada3 ONLINE 0 0 0
errors: No known data errors
ada2 war in Unraid die Parity Platte
Unten steht "No know data errors" - das heisst, es müssten alle daten noch da sein? Wie kann das sein? Das ZFS robust sein soll, wusste ich, aber das überrascht mich jetzt.. Was meint Ihr dazu?