h^2
hat ne Keule +1
Der neue Fileserver wird langsam eingerichtet. Doch bevor ich den zpool erzeuge, dachte ich, ich benchmarke erstmal "roh" die Platten.
Es sind verbaut
Jede der Platten hat ein 40GB ufs welches unter /mnt/ufs* gemountet ist.
Als simplen Test, habe ich erstmal 10GB aus /dev/random in ein ramdisk unter /tmp2 geschrieben und diese dann in die jeweilegen Mount-Punkte kopiert:
Über 3GB/s ist prima. Check.
Nun kopiere ich die Daten zurück. Einmal cold und dann nochmal hot:
Die Lexar NVMEs erreichen ca 550MB/s im sequenziellen Lesen. Das ist deutlich weniger als gedacht und beworben. Aber die Crucial erreichen sogar nur nur 110MB/s, das ist ja ungefähr so lahm, wie eine spinning disk. Was ist da los!?
Ich habe die Platten folgendermaßen partitioniert:
Obige Tests fanden wie gesagt auf dem UFS statt. Es ist noch kein FreeBSD installiert und auch noch kein Zpool eingerichtet (ich bin in der Live-Umgebung).
Habe ich was falsch gemacht? Wie komme ich hier weiter?
Danke für eure Hilfe!
Es sind verbaut
Code:
<Lexar SSD NM790 4TB 12237> at scbus5 target 0 lun 1 (pass1,nda0)
<CT4000P3PSSD8 P9CR40A> at scbus6 target 0 lun 1 (pass2,nda1)
<CT4000P3PSSD8 P9CR40A> at scbus7 target 0 lun 1 (pass3,nda2)
<Lexar SSD NM790 4TB 12237> at scbus8 target 0 lun 1 (pass4,nda3)
Jede der Platten hat ein 40GB ufs welches unter /mnt/ufs* gemountet ist.
Als simplen Test, habe ich erstmal 10GB aus /dev/random in ein ramdisk unter /tmp2 geschrieben und diese dann in die jeweilegen Mount-Punkte kopiert:
Code:
root@:~ # time cp /tmp2/10G.img /mnt/ufs0/
2.72 real 0.00 user 2.36 sys
root@:~ # time cp /tmp2/10G.img /mnt/ufs1/
3.06 real 0.00 user 2.64 sys
root@:~ # time cp /tmp2/10G.img /mnt/ufs2/
2.93 real 0.00 user 2.57 sys
root@:~ # time cp /tmp2/10G.img /mnt/ufs3/
2.76 real 0.00 user 2.40 sys
Über 3GB/s ist prima. Check.
Nun kopiere ich die Daten zurück. Einmal cold und dann nochmal hot:
Code:
root@:~ # time cp /mnt/ufs0/10G.img /tmp2/
17.96 real 0.00 user 11.71 sys
root@:~ # time cp /mnt/ufs0/10G.img /tmp2/
2.49 real 0.00 user 2.49 sys
root@:~ # time cp /mnt/ufs1/10G.img /tmp2/
88.65 real 0.00 user 11.36 sys
root@:~ # time cp /mnt/ufs1/10G.img /tmp2/
2.46 real 0.00 user 2.46 sys
root@:~ # time cp /mnt/ufs2/10G.img /tmp2/
88.58 real 0.00 user 11.68 sys
root@:~ # time cp /mnt/ufs2/10G.img /tmp2/
2.84 real 0.00 user 2.84 sys
root@:~ # time cp /mnt/ufs3/10G.img /tmp2/
18.40 real 0.00 user 11.63 sys
root@:~ # time cp /mnt/ufs3/10G.img /tmp2/
2.83 real 0.00 user 2.83 sys
Die Lexar NVMEs erreichen ca 550MB/s im sequenziellen Lesen. Das ist deutlich weniger als gedacht und beworben. Aber die Crucial erreichen sogar nur nur 110MB/s, das ist ja ungefähr so lahm, wie eine spinning disk. Was ist da los!?
Ich habe die Platten folgendermaßen partitioniert:
Code:
gpart create -s gpt /dev/nda1
gpart add -a 4k -s 1G -t efi nda1
# efi foo
gpart add -a 1m -s 8G -t freebsd-swap -l swap1 nda1
gpart add -a 1m -s 40G -t freebsd-ufs -l reserved1 nda1
newfs /dev/nda1p3
gpart add -a 1m -t freebsd-zfs -l zpool1 nda1
Obige Tests fanden wie gesagt auf dem UFS statt. Es ist noch kein FreeBSD installiert und auch noch kein Zpool eingerichtet (ich bin in der Live-Umgebung).
Habe ich was falsch gemacht? Wie komme ich hier weiter?
Danke für eure Hilfe!