FreeBSD 10 probleme mit einer defekten Platte im zfs Pool raidz2?

kira12

Well-Known Member
Hallo Leute,

ich nutze FreeBSD10 und habe in dem Rechner 2 zfs Pools. Heute habe ich mal wieder einen scrub angeschoben und daraufhin hat sich der Pool verabschiedet. Den Rechner neustarten dauert ewig und beim nächsten Scrub das gleiche verhalten. Die console sagt:

Code:
Feb 22 22:49:27 file smartd[1151]: Device: /dev/da0 [SAT], 9 Currently unreadable (pending) sectors
Feb 22 22:49:27 file smartd[1151]: Device: /dev/da0 [SAT], 9 Offline uncorrectable sectors
Feb 22 22:51:01 file kernel: GEOM_ELI: Device da0p1.eli destroyed.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da0p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI:
Feb 22 22:51:01 file kernel: Device da1p1.eli destroyed.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da1p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI:
Feb 22 22:51:01 file kernel: Device da2p1.eli destroyed.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da2p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI: Device da3p1.eli destroyed.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da3p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI: Device da4p1.eli destroyed.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da4p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI: Detached da5p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI:
Feb 22 22:51:01 file kernel: Detached da6p1.eli on last close.
Feb 22 22:51:01 file kernel: GEOM_ELI:
Feb 22 22:51:01 file kernel: Detached da7p1.eli on last close.
Feb 22 22:51:02 file kernel: GEOM_ELI: Device da7p1.eli destroyed.
Feb 22 22:51:02 file kernel: GEOM_ELI: Detached da7p1.eli on last close.
Feb 22 22:51:02 file kernel: GEOM_ELI: Device da5p1.eli destroyed.
Feb 22 22:51:02 file kernel: GEOM_ELI: Detached da5p1.eli on last close.
Feb 22 22:51:02 file kernel: GEOM_ELI: Device da6p1.eli destroyed.
Feb 22 22:51:02 file kernel: GEOM_ELI: Detached da6p1.eli on last close.

der Pool sollte sich doch nicht verabschieden bei einer defekten Platte? Warum wirft dann geli alle Platten raus?

zpool status hat alle Platten als unavailable erkannt.

Gruß ré
 
an der da0 liegt es nicht, auch mit deaktivierter da0 schmeißt geli alle anderen Platten raus beim scrub des Pools. Wie komme ich der sache auf die Spur?

Gruß ré
 
Das ist ein Feature. Wenn auch ein verwirrendes. :) "zpool scrub" schließt im ersten Schritt alle Medien im Pool und öffnet sie im zweiten wieder. Das geli rc-Script setzt "-d" aka "Detach on last close". Sobald "zpool scrub" schließt, zerstört geli also seine Devices und dir fliegt der Pool um die Ohren. Um das zu verhindern, kannst du 'geli_autodetach="NO"' in der /etc/rc.conf setzen.
 
Hallo Yamagi,

was würde ich nur ohne dich machen? Das war des Rätsels Lösung ;-) Ich habe gestern den Rechner umgebaut von ciss auf sas hba. In dem Zug habe ich den HP (OEM LSI) Controller gleich mit der letzten LSI Firmware geflasht. Ich dachte ich hätte das Ding damit gekillt.

danke für die Hilfe
 
Zurück
Oben