iSCSI per FreeNAS 9.2: 5 MB/s

kmh

Well-Known Member
Um es vorweg zu nehmen, ich kenne mich mit iSCSI nicht besonders gut aus ;)

Auf meinem Fileserver (FreeNAS 9.2.1.2, Phenom X6, 8GB Ram) habe ich per NFS bzw. Samba 80-100 MB/s. Mehr schafft das Netzwerk nicht.

Nun habe ich unter Windows ein iSCSI-Target eingebunden das Target liegt im ZFS als Datei. Die Performance ist aber unterirdisch bei ca. 5 MB/s sowohl lesend als auch schreibend. Ich kann parallel zum iSCSI Schreibvorgang per SMB Daten weiterhin mit ca. 100 MB/s schreiben.

Hat jemand eine Ahnung woran es liegen könnte?
 
Kleiner Nachtrag:

Ich habe es nun mal kurz mit einem Linux-Initiator getestet: minimal 45 MB/s, meistens 80-100 MB/s. Das sieht nach einem Windows spezifischen Problem aus.
 
hi

grunsaetzlich wirst du nicht die performance von smb oder nfs erreichen.
iscsi hat einen recht grossen protocol overhead was dazu fuehrt ds man im schnitt zwischen 50 un 80 MB read hinekommt.

weitere detail dazu auch unter open iscsi org

holger
 
Danke für den Hinweis! Einige Benchmarks zeigen mir je nach Test Werte zwischen 2 MB/s und 80 MB/s. Aber laut Performance-Messung von DELL soll iSCSI über GbEth 250 MB/s schaffen. Davon bin ich weit entfernt ;)
 
hi

never ever ... ggf mit kanal kopplung.

single 1 Gbit ethernet ergeben max theroretische 100 MB/s jedoch muss protocol overhead tcp/ip sowie iscsi protocol abegezogen werden.

bleiben bei einem software initiatror rund 80 MB/s .
es gibt hw iscsi controller die sind aber nur unwesentlich schneller , da die aktuellen cpus der board genug leistung haben.



holger
 
Ich habe das auch mal getestet (FreeBSD 9.X) und mit "Multipath" und "Jumbo Frames" bin ich locker auf ca. 250MB/s gekommen. War mit einem ESXi Host und 3 NIC's glaube ich. Grundsätzlich sollte dies funktionieren.
 
Wikipedia geht von dem Full Duplex Fall aus. Also einen 1GB/s Link für eingehende Daten, 1GB/s Link für ausgehende Daten. Das Ganze etwas großzügig gerundet. Genau wie foxit sagt.

Was Performance betrifft, ist serverseitig (aber das ist ja gar nicht das Problem) auch noch zu beachten, welches Target man nutzt. FreeBSD 8.x und 9.x haben ja das NetBSD-Target, was man aus den Ports installiert. FreeBSD 10.0 hingegen das neue, native Target. Das ist allerdings ausdrücklich noch nicht auf Performance optimiert. In 10-STABLE gab es da eine gefühlte Million Commits, aber was die nun genau bewirken kann ich nicht sagen.
 
FreeBSD 8.x und 9.x haben ja das NetBSD-Target, was man aus den Ports installiert. FreeBSD 10.0 hingegen das neue, native Target. Das ist allerdings ausdrücklich noch nicht auf Performance optimiert.
Das ist ein wichtiger Punkt! Ich habe noch einen Screenshot ausgegraben von meinen Tests :)
 

Anhänge

  • Auswahl_218.png
    Auswahl_218.png
    250,9 KB · Aufrufe: 438
Und wieder etwas schlauer geworden! Danke!

Mir war nicht klar das FDX hier 2 gebündelte GbEth-Karten meint. Habe mich auch schon gewundert wie dass gehen soll.
 
Und wieder etwas schlauer geworden! Danke!

Mir war nicht klar das FDX hier 2 gebündelte GbEth-Karten meint. Habe mich auch schon gewundert wie dass gehen soll.

hi
vosicht , lieber die multipath funktion von iscsi nutzen als 2 ethernet karten via os trunken , bonden , wie auch immer das bei dem jeweiligen
os heist


holger
 
Zurück
Oben