Channelbounding mit zwei FreeBSD Systemen

minimike

Berufsrevolutionär
Hi

Ich versuche gerade zwei FreeBSD Systeme mittels Channelbonding auf 2GBit zu verbinden.

Box1 mit einer Dualport Nic
Code:
ifconfig igb0 up
ifconfig igb1 up
ifconfig lagg0 create 
ifconfig lagg0 laggproto lacp laggport igb0 laggport igb1 192.168.254.1/24

Box2 mit zwei singleport Nics
Code:
ifconfig em0 up
ifconfig em1 up
ifconfig lagg0 create
ifconfig lagg0 laggproto lacp laggport em0 laggport em1 192.168.254.2/24

Pingen zwischen den Systemen geht aber nicht. Ebenso wenn ich als laggproto roundrobin mitgebe, wovon aber das Handbuch abrät.

Ziel ist es eine an Box2 angeschlossene Tape-Library anstatt mit 1 Gbit mit 2 Gbit übers LAN zu befeuern um die Hardware voll auszureizen. Was mache ich falsch?
 
Zuletzt bearbeitet:
Dann würde ich mal tcpdump laufen lassen, sowohl auf dem bonded device als auch auf dessen einzelnen Komponenten.

Evtl. bringt dir dieser Thread etwas:
http://lists.freebsd.org/pipermail/freebsd-stable/2012-September/069465.html

Rob

Das einzige was überhauot auftaucht ist

00:00:00.000000 90:e2:ba:48:44:d8 > ff:ff:ff:ff:ff:ff, ethertype ARP (0x0806), length 42: Request who-has 192.168.254.2 tell 192.168.254.1, length 28

So wie es scheint besteht keine Verbindung. Nun Kabel sind dran und ich bin so schlau wie zuvor :(
 
Da Fehlt noch mindestens ein:
Code:
ifconfig lagg0 up
Davon mal abgesehen, bist du dir sicher, dass du LACP willst? Es nutzt (meist) Hashes der dritten Ebene, wodurch eine TCP-Verbindung an einen Link gebunden ist. In der Praxis kommt man daher in vielen Workloads nicht über die Geschwindigkeit eines Links hinaus...
 
Hoi,
was Du da vorhast ist möglich, bringt allerdings technisch bedingt für die meisten Links nur die maximale Bandbreite einer Verbindung mit sich. Alle Frames, die zu einer bestimmten Datenkommunikation gehören, werden über dieselbe physische Verbindung übertragen. Die Datenbären werden frameweise übär die physikalischen Links verteilt. Das gewährleistet die Zustellung der einzelnen Frames einer Datenkommunikation in der richtigen Reihenfolge und verhindert mis-ordering. Wirklich sinnvoll nutzbar sind die 2x 1 Gbit LACP erst bei sehr vielen parallenen Verbindungen, was in Deinem Szenario vermutlich eher unwahrscheinlich sein wird. Zwecks Failover kann das bärig sinnvoll sein. Sofern ein 1 GBit Link in der Regel nicht reicht, würde ich gleich zu einer 10 GBit NIC greifen.
Gruß Bummibär
 
10 GB geht nicht. Ein teuerer Server und eine Billigbüchse an der Tapelibrary. Ab und an schmiert die Library ab und zieht den Server (Billigbüchse) gleich mit runter. Die Billigbüchse hat keinen PCIe 4x Schacht mehr für eine 10 GB Nic.
Zudem bekomme ich kein Budget hierfür. Darum wollte ich das ganz gerne mit Channelbounding probieren.
 
Hoi,
dann geb dene NICs oifach verschiedene IPs aus unteschiedliche Netzte dann kannus parallel uf beide zugreifen :) Da haschu zwar denne koi Failover abär dafür echte 2 Gbit bärig fein :) - sofern das die Verwendung zulässt.
Gruß Bummibär
 
Hoi,
dann geb dene NICs oifach verschiedene IPs aus unteschiedliche Netzte dann kannus parallel uf beide zugreifen :) Da haschu zwar denne koi Failover abär dafür echte 2 Gbit bärig fein :) - sofern das die Verwendung zulässt.
Gruß Bummibär

Ich habe den Fehler mittlerweile auf igb eingegrenzt. Das Setup per rc.conf konfiguriert lässt zudem den Server beim booten hängen. Zum Schluss öffnet sich keine Shell aber man kann per Affengriff die Kiste sauber in den Reboot bringen.
Gab es da nicht Probleme mit IGB Nic's? Ich fahre produktiv auf der Kiste leider 9.1-RELEASE-p4. Die 8er wäre mir lieber gewesen aber ich hatte damals bei der Installation keine Treiber für den Raidcontroller.

Auf der Firewall fahre ich eine 4-Port IGB ohne Probleme mit 8.4
 
Hallo,

da stellt sich mir generell die Frage ob Bonding funktioniert, zumindest was Transferrate angeht?

Gruß ré
 
Zurück
Oben