Hallo, ich habe eine Frage zu ZFS.
Warum wird tank/samba-bilderdb mit 13.4T angezeigt, die kopie auf dem neuen tank10TBnas1 aber mit 16.9 ??
(Es wurden natürlich keine Bilder draufkopiert...) das zfs send/recv dauerte nun ein paar Tage.
Die letzte Zeile vom zfs send / recv Befehl ist:
20:54:14 8.57T tank/samba-bilderdb@bildersnap
Dort also wieder eine andere Zahl 8.57 TB - ich dachte, es hängt mit copies oder compression zusammen, doch diee Werte sind gleich.
Alte Datasets:
tank/samba-bilderdb 13.4T 1.29T 13.4T /tank/bilderdb
tank/samba-bilderdb-ingest 466G 1.29T 466G /tank/bilderdb-ingest
neue DS:
tank10TBnas1/samba-bilderdb 16.9T 4.16T 16.9T /data/samba/bilderdb
tank10TBnas1/samba-bilderdb-ingest 956G 4.16T 956G /data/samba/bilderdb-ingest
bilderdb ist also von 13.4 auf 16.9T angewachsen, wie kann das sein?
dedup ist 1..
copies bei beiden 2
compression bei beiden lz4
Beim Umzug bin ich nach diesem Schema vorgegangen
snapshot erstellen
zfs snapshot tank/samba-bilderdb-ingest@snap1
RX/TX:
zfs send -v tank/samba-bilderdb-ingest@snap1 | zfs recv tank10TBnas1/samba-bilderdb-ingestNEU
snapshot clonen:
zfs clone tank10TBnas1/samba-bilderdb-ingestNEU@snap1 tank10TBnas1/samba-bilderdb-ingestCLONED
clone promoten
zfs promote tank10TBnas1/samba-bilderdb-ingestCLONED
rename
zfs rename tank10TBnas1/samba-bilderdb-ingestCLONED tank10TBnas1/samba-bilderdb-ingestNEUfinal
snap löschen
zfs destroy -R tank10TBnas1/samba-bilderdb-ingestNEUfinal@snap1
Mountpoints
umount / data/samba/..
zfs set mountpoint=/data/samba/bilderdb-ingest tank10TBnas1/samba-bilderdb-ingest
Wie passen diese Zahlen zusammen?
Viele Grüße
rakso
Ein Teil der Platten ist onboard (asrock C2750D4I) und andere am controller:
Controller type : SAS2308_2
BIOS version : 7.37.00.00
Firmware version : 20.00.07.00
OS: nas4free, 11.1-RELEASE-p8
Warum wird tank/samba-bilderdb mit 13.4T angezeigt, die kopie auf dem neuen tank10TBnas1 aber mit 16.9 ??
(Es wurden natürlich keine Bilder draufkopiert...) das zfs send/recv dauerte nun ein paar Tage.
Die letzte Zeile vom zfs send / recv Befehl ist:
20:54:14 8.57T tank/samba-bilderdb@bildersnap
Dort also wieder eine andere Zahl 8.57 TB - ich dachte, es hängt mit copies oder compression zusammen, doch diee Werte sind gleich.
Alte Datasets:
tank/samba-bilderdb 13.4T 1.29T 13.4T /tank/bilderdb
tank/samba-bilderdb-ingest 466G 1.29T 466G /tank/bilderdb-ingest
neue DS:
tank10TBnas1/samba-bilderdb 16.9T 4.16T 16.9T /data/samba/bilderdb
tank10TBnas1/samba-bilderdb-ingest 956G 4.16T 956G /data/samba/bilderdb-ingest
bilderdb ist also von 13.4 auf 16.9T angewachsen, wie kann das sein?
dedup ist 1..
copies bei beiden 2
compression bei beiden lz4
Code:
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
tank 27.2T 24.8T 2.46T - 20% 90% 1.00x DEGRADED -
tank10TBnas1 45.2T 36.9T 8.37T - 25% 81% 1.00x ONLINE -
zroot 9.94G 2.99G 6.95G - 56% 30% 1.00x ONLINE -
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
gpt/raid6r1.eli FAULTED 166 916 0 too many errors
gpt/raid6r2.eli ONLINE 0 0 0
gpt/raid6r3.eli ONLINE 0 0 0
gpt/raid6r5.eli ONLINE 0 0 0
gpt/raid6r4.eli ONLINE 0 0 0
logs
mirror-1 ONLINE 0 0 0
gpt/ssdlog0 ONLINE 0 0 0
gpt/ssdlog1 ONLINE 0 0 0
cache
gpt/ssdcache0 ONLINE 0 0 0
gpt/ssdcache1 ONLINE 0 0 0
errors: No known data errors
pool: tank10TBnas1
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank10TBnas1 ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
gpt/zfs10TB1.eli ONLINE 0 0 0
gpt/zfs10TB2.eli ONLINE 0 0 0
gpt/zfs10TB3.eli ONLINE 0 0 0
gpt/zfs10TB4.eli ONLINE 0 0 0
gpt/zfs10TB5.eli ONLINE 0 0 0
Beim Umzug bin ich nach diesem Schema vorgegangen
snapshot erstellen
zfs snapshot tank/samba-bilderdb-ingest@snap1
RX/TX:
zfs send -v tank/samba-bilderdb-ingest@snap1 | zfs recv tank10TBnas1/samba-bilderdb-ingestNEU
snapshot clonen:
zfs clone tank10TBnas1/samba-bilderdb-ingestNEU@snap1 tank10TBnas1/samba-bilderdb-ingestCLONED
clone promoten
zfs promote tank10TBnas1/samba-bilderdb-ingestCLONED
rename
zfs rename tank10TBnas1/samba-bilderdb-ingestCLONED tank10TBnas1/samba-bilderdb-ingestNEUfinal
snap löschen
zfs destroy -R tank10TBnas1/samba-bilderdb-ingestNEUfinal@snap1
Mountpoints
umount / data/samba/..
zfs set mountpoint=/data/samba/bilderdb-ingest tank10TBnas1/samba-bilderdb-ingest
Wie passen diese Zahlen zusammen?
Viele Grüße
rakso
Ein Teil der Platten ist onboard (asrock C2750D4I) und andere am controller:
Controller type : SAS2308_2
BIOS version : 7.37.00.00
Firmware version : 20.00.07.00
OS: nas4free, 11.1-RELEASE-p8
Zuletzt bearbeitet: