bsd4me
Well-Known Member
Hallo,
in einem meiner Supermicro Server läuft ein mpr Controller (Avago Technologies (LSI) SAS3008), an dem 8 x 6TB SATA Platen geschlossen sind. Jetzt ist eine Platte ausgefallen und ich würde die gerne ersetzen. Auf jeden fall habe ich beobachtet, dass unter hoher Last das ganze nicht immer sauber läuft. Wie dem auch sei, ich habe eine Frage zum Plattenechsel, und zwar sind alle 8 Platten (da0..da7) gleich partitioniert:
[root@server:gpt] # ll /dev/da0*
crw-r----- 1 root operator 0x6b Nov 22 17:01 /dev/da0
crw-r----- 1 root operator 0x74 Nov 22 17:01 /dev/da0p1
crw-r----- 1 root operator 0x75 Nov 22 17:01 /dev/da0p2
crw-r----- 1 root operator 0x76 Nov 22 17:01 /dev/da0p3
wobei da0p1 die bootpartition ist, da0p2 swap und da0p3 die eigentliche Datenpartition. die Partitionen da0p3..da7p3 habe ich zusammengefasst zum pool zroot, der dann so aussieht:
[root@server:~] # zpool status
pool: zroot
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
scan: resilvered 524G in 19h53m with 0 errors on Tue Nov 22 08:15:48 2016
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gpt/rda0 FAULTED 132 774 0 too many errors
gpt/rda1 ONLINE 0 0 0
gpt/rda2 ONLINE 0 0 0
gpt/rda3 ONLINE 0 0 0
gpt/rda4 ONLINE 0 0 0
gpt/rda5 ONLINE 0 0 0
gpt/rda6 ONLINE 0 0 0
gpt/rda7 ONLINE 0 0 0
ich wollte rda0 wieder aktivieren und schauen, wie es sich resilverd (weil ich meine es ist nicht wirklich kaputt, sondern der Controller hatte Probleme) mit einem "zpool clear zroot" und bekomme, fast das gleiche Ergebnis, allerdings mit der Zeile:
gpt/rda0 FAULTED 3 0 0 too many errors
nun - ich habe eine Ersatzdisk, aber die Frage ist, wenn ich sie tausche, bootet dann der Server wieder? Da ich ja jede Platte in 3 Partitionen aufgetailt habe, ist mir das nicht 100% klar. kann mir da jemand helfen? Oder fehlen infos?
Vielelicht als Zusatzinfos, ich habe die Platten folgendermassen partitioniert:
DISKS="da0 da1 da2 da3 da4 da5 da6 da7"
SWAPSIZE=8
for DISK in $DISKS; do
gpart destroy -F $DISK
dd if=/dev/zero of=/dev/$DISK bs=512 count=1
gpart create -s gpt $DISK
gpart add -t freebsd-boot -l b$DISK -b 40 -s 512K $DISK
gpart add -a 4k -t freebsd-swap -l s$DISK -s ${SWAPSIZE}G $DISK
gpart add -a 4k -t freebsd-zfs -l r$DISK $DISK
gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 $DISK
done
VG Norbert
in einem meiner Supermicro Server läuft ein mpr Controller (Avago Technologies (LSI) SAS3008), an dem 8 x 6TB SATA Platen geschlossen sind. Jetzt ist eine Platte ausgefallen und ich würde die gerne ersetzen. Auf jeden fall habe ich beobachtet, dass unter hoher Last das ganze nicht immer sauber läuft. Wie dem auch sei, ich habe eine Frage zum Plattenechsel, und zwar sind alle 8 Platten (da0..da7) gleich partitioniert:
[root@server:gpt] # ll /dev/da0*
crw-r----- 1 root operator 0x6b Nov 22 17:01 /dev/da0
crw-r----- 1 root operator 0x74 Nov 22 17:01 /dev/da0p1
crw-r----- 1 root operator 0x75 Nov 22 17:01 /dev/da0p2
crw-r----- 1 root operator 0x76 Nov 22 17:01 /dev/da0p3
wobei da0p1 die bootpartition ist, da0p2 swap und da0p3 die eigentliche Datenpartition. die Partitionen da0p3..da7p3 habe ich zusammengefasst zum pool zroot, der dann so aussieht:
[root@server:~] # zpool status
pool: zroot
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
scan: resilvered 524G in 19h53m with 0 errors on Tue Nov 22 08:15:48 2016
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gpt/rda0 FAULTED 132 774 0 too many errors
gpt/rda1 ONLINE 0 0 0
gpt/rda2 ONLINE 0 0 0
gpt/rda3 ONLINE 0 0 0
gpt/rda4 ONLINE 0 0 0
gpt/rda5 ONLINE 0 0 0
gpt/rda6 ONLINE 0 0 0
gpt/rda7 ONLINE 0 0 0
ich wollte rda0 wieder aktivieren und schauen, wie es sich resilverd (weil ich meine es ist nicht wirklich kaputt, sondern der Controller hatte Probleme) mit einem "zpool clear zroot" und bekomme, fast das gleiche Ergebnis, allerdings mit der Zeile:
gpt/rda0 FAULTED 3 0 0 too many errors
nun - ich habe eine Ersatzdisk, aber die Frage ist, wenn ich sie tausche, bootet dann der Server wieder? Da ich ja jede Platte in 3 Partitionen aufgetailt habe, ist mir das nicht 100% klar. kann mir da jemand helfen? Oder fehlen infos?
Vielelicht als Zusatzinfos, ich habe die Platten folgendermassen partitioniert:
DISKS="da0 da1 da2 da3 da4 da5 da6 da7"
SWAPSIZE=8
for DISK in $DISKS; do
gpart destroy -F $DISK
dd if=/dev/zero of=/dev/$DISK bs=512 count=1
gpart create -s gpt $DISK
gpart add -t freebsd-boot -l b$DISK -b 40 -s 512K $DISK
gpart add -a 4k -t freebsd-swap -l s$DISK -s ${SWAPSIZE}G $DISK
gpart add -a 4k -t freebsd-zfs -l r$DISK $DISK
gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 $DISK
done
VG Norbert