bsd4me
Well-Known Member
Hi,
ich habe mal eine Frage - es geht um einen 2 HE Supermicro Server (noch mit 13.1 Version), der 8 Festplatten hat. Die Festplatten sind mittels eines mpr Conrtollers angebunden
# dmesg | grep mpr
mpr0: <Avago Technologies (LSI) SAS3008> port 0xc000-0xc0ff mem 0xfddf0000-0xfddfffff irq 44 at device 0.0 on pci1
mpr0: Firmware: 05.00.00.00, Driver: 23.00.00.00-fbsd
mpr0: IOCCapabilities: 7a85c<ScsiTaskFull,DiagTrace,SnapBuf,EEDP,TransRetry,EventReplay,MSIXIndex,HostDisc,FastPath,RDPQArray>
mpr0: Found device <881<SataDev,Direct>,End Device> <6.0Gbps> handle<0x0009> enclosureHandle<0x0001> slot 3
mpr0: At enclosure level 0 and connector name ( )
...
da0 at mpr0 bus 0 scbus0 target 0 lun 0
...
Leider ist eine Platte defekt:
# dmesg | grep mpr
...
mpr0: Sending abort to target 5 for SMID 1888
(da5:mpr0:0:5:0): WRITE(16). CDB: 8a 00 00 00 00 07 48 e5 5c 18 00 00 00 10 00 00 length 8192 SMID 1888 Aborting command 0xfffffe0114277500
(da5:mpr0:0:5:0): WRITE(16). CDB: 8a 00 00 00 00 07 5d c1 30 d8 00 00 00 10 00 00 length 8192 SMID 1940 Command timeout on target 5(0x000f), 60000 set, 60.97627519 elapsed
mpr0: At enclosure level 0, slot 5, connector name ( )
(da5:mpr0:0:5:0): SYNCHRONIZE CACHE(10). CDB: 35 00 00 00 00 00 00 00 00 00 length 0 SMID 2115 Command timeout on target 5(0x000f), 60000 set, 60.99642187 elapsed
mpr0: At enclosure level 0, slot 5, connector name ( )
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 1308 loginfo 31130000
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 1940 loginfo 31130000
(da5:mpr0:0:5:0): WRITE(10). CDB: 2a 00 03 40 33 98 00 00 08 00
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 2115 loginfo 31130000
...
# zpool status
pool: zroot
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gpt/rda0 ONLINE 0 0 0
gpt/rda1 ONLINE 0 0 0
gpt/rda2 ONLINE 0 0 0
gpt/rda3 ONLINE 0 0 0
gpt/rda4 ONLINE 0 0 0
gpt/rda5 FAULTED 3 0 0 too many errors
gpt/rda6 ONLINE 0 0 0
gpt/rda7 ONLINE 0 0 0
das ist nicht weiter schlimm, ich möchte aber die Platte bald ersetzen. Wäre es auch möglich im laufenden Betrieb? Ich müsste natürlich die Platte erstmal lokalisieren mit
# sesutil
sesutil: Missing command
Usage: sesutil [-u /dev/ses<N>] <command> [options]
Commands supported:
fault (<disk>|<sesid>|all) (on|off)
Change the state of the fault LED associated with a disk
...
oder? Dann müsste die Lampe am Plattenschacht blinken - ist das so? Die Platten dann auf offline stellen mit:
# zpool offline zroot gpt/rda5
Platte tauschen, obwohl der Rechner noch eingeschaltet und online ist, dann die Partitionierung kopieren - alle Platten haben die gleiche Partitionierung
# gpart backup da0 | gpart restore -F da5
Dann den "repalce" Vorgang einläuten
# zpool replace zroot /dev/da5 /dev/da4p4
# gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da5
Dann solle sich der Pool "resilvern" - habe ich das so korrekt dargesetllt? Ich hoffe ich habe nicht zu viel geschrieben :-)
Vielen Dank für eine Antwort!!! Und viele Grüsse, Norbert
ich habe mal eine Frage - es geht um einen 2 HE Supermicro Server (noch mit 13.1 Version), der 8 Festplatten hat. Die Festplatten sind mittels eines mpr Conrtollers angebunden
# dmesg | grep mpr
mpr0: <Avago Technologies (LSI) SAS3008> port 0xc000-0xc0ff mem 0xfddf0000-0xfddfffff irq 44 at device 0.0 on pci1
mpr0: Firmware: 05.00.00.00, Driver: 23.00.00.00-fbsd
mpr0: IOCCapabilities: 7a85c<ScsiTaskFull,DiagTrace,SnapBuf,EEDP,TransRetry,EventReplay,MSIXIndex,HostDisc,FastPath,RDPQArray>
mpr0: Found device <881<SataDev,Direct>,End Device> <6.0Gbps> handle<0x0009> enclosureHandle<0x0001> slot 3
mpr0: At enclosure level 0 and connector name ( )
...
da0 at mpr0 bus 0 scbus0 target 0 lun 0
...
Leider ist eine Platte defekt:
# dmesg | grep mpr
...
mpr0: Sending abort to target 5 for SMID 1888
(da5:mpr0:0:5:0): WRITE(16). CDB: 8a 00 00 00 00 07 48 e5 5c 18 00 00 00 10 00 00 length 8192 SMID 1888 Aborting command 0xfffffe0114277500
(da5:mpr0:0:5:0): WRITE(16). CDB: 8a 00 00 00 00 07 5d c1 30 d8 00 00 00 10 00 00 length 8192 SMID 1940 Command timeout on target 5(0x000f), 60000 set, 60.97627519 elapsed
mpr0: At enclosure level 0, slot 5, connector name ( )
(da5:mpr0:0:5:0): SYNCHRONIZE CACHE(10). CDB: 35 00 00 00 00 00 00 00 00 00 length 0 SMID 2115 Command timeout on target 5(0x000f), 60000 set, 60.99642187 elapsed
mpr0: At enclosure level 0, slot 5, connector name ( )
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 1308 loginfo 31130000
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 1940 loginfo 31130000
(da5:mpr0:0:5:0): WRITE(10). CDB: 2a 00 03 40 33 98 00 00 08 00
mpr0: Controller reported scsi ioc terminated tgt 5 SMID 2115 loginfo 31130000
...
# zpool status
pool: zroot
state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
repaired.
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gpt/rda0 ONLINE 0 0 0
gpt/rda1 ONLINE 0 0 0
gpt/rda2 ONLINE 0 0 0
gpt/rda3 ONLINE 0 0 0
gpt/rda4 ONLINE 0 0 0
gpt/rda5 FAULTED 3 0 0 too many errors
gpt/rda6 ONLINE 0 0 0
gpt/rda7 ONLINE 0 0 0
das ist nicht weiter schlimm, ich möchte aber die Platte bald ersetzen. Wäre es auch möglich im laufenden Betrieb? Ich müsste natürlich die Platte erstmal lokalisieren mit
# sesutil
sesutil: Missing command
Usage: sesutil [-u /dev/ses<N>] <command> [options]
Commands supported:
fault (<disk>|<sesid>|all) (on|off)
Change the state of the fault LED associated with a disk
...
oder? Dann müsste die Lampe am Plattenschacht blinken - ist das so? Die Platten dann auf offline stellen mit:
# zpool offline zroot gpt/rda5
Platte tauschen, obwohl der Rechner noch eingeschaltet und online ist, dann die Partitionierung kopieren - alle Platten haben die gleiche Partitionierung
# gpart backup da0 | gpart restore -F da5
Dann den "repalce" Vorgang einläuten
# zpool replace zroot /dev/da5 /dev/da4p4
# gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da5
Dann solle sich der Pool "resilvern" - habe ich das so korrekt dargesetllt? Ich hoffe ich habe nicht zu viel geschrieben :-)
Vielen Dank für eine Antwort!!! Und viele Grüsse, Norbert