Hardware für "dicke" ZFS Storages

kai_001

Well-Known Member
Hi,

was nehmt ihr für Hardware für ZFS Storages ( größer > 10TB )? Wo kauft ihr diese ein? Baut ihr selber zusammen?

Grüße
Kai
 
Ok,

ich meinte eher mit FreeBSD im 19" Bereich als HE's ... nicht gleich nen ganzen Schrank ;-)

Trotzdem Danke. Aber knapp 20TB auf so ein Riesenteil ist nicht grade dolle, oder übersehe ich was??

Grüße
Kai
 
:) Aufgrund der Anzahl der Processoren denke ich, daß es bei den Schränken eher um CPU-Kapazitäten als um HD-Speicheriesen geht :)
 
19" 1-2 HE im Selbstbau? Wohl kaum ^_^


Wo erwähnt er HEs? oO
Abgesehen davon wäre das auf 2HE doch absolut machbar wenn es nur um die Kapazität und nicht um hohe Geschwindigkeit geht.

Schau mal bei http://server-bau.de/ virbei. Die verbauen Chenbro und SuperMicro. Da gibt es Qualitativ nichts auszusetzen und das meiste dessen was sie Verkaufen sollte auch keine Probleme mit FreeBSD machen.
 
hi

ich habe hier aus 2 ollen hp systeme und einigen ollen infotrend platten
boxen ( enthalten 8x 1GB HD )
mit opensolaris nen storage gebaut.

laeuft recht gut .

warum osol weil zfs acl´s kann und diese via cifs verwendar sind
( der win admin freut sich )
und wegen der cluster funktionalitaeten .
die infotrend kisten haben 2 scsi kanaele woran man 2 rechner klemmen ( mit unterschiedlicher scsi hba id ) und somit ein hochverfuegbarkeits storage aufbauen kann .

freebsd oder linux bietet an derstelle nur hast oder drbd an was mir aber
zuviel verlust an kapazitaet hat.

verwendet wird das kannze im kern als backup maschine und immer dann
wenn teure kapazietaet der netapp sich fuer die funktion rechnet.


mfg

holger
 
Hi,

was nehmt ihr für Hardware für ZFS Storages ( größer > 10TB )? Wo kauft ihr diese ein? Baut ihr selber zusammen?

Grüße
Kai

HDS 2x Tagmastore 9990v ----- jeweils ueber Kreuz gespiegelt.
HDS 2x " " 9990 ------ " "

LSI/Storageteck 6780 ----->Midrange
6540 -----> Midrange
6140 ------ Zwerge(Range)

Gekauft bei dem was sich heute so... Ora-Qaida nennt... :ugly:

Die HDSen sind super, kann ich nur empfehlen, aber auch nicht ganz guenstig.

Wenn es was kleineres sein soll.
3Par hat auch schoene Kinder, oder IBM's Xiv ist auch ein spannendes Thema. :-)
und HP sollte man auch nicht vergessen.

Muss ja nicht fuer jeden Zweck ein Tagmastore oder EVA Monster sein.
 
Hallo,

HP hat da auch schöne Sachen, nicht ganz neu aber gut und Preiswert. MSA20 hat Platz für 12x 3,5Zoll SAS/SATA und wird per SCSI an einen (HP)Rechner angebunden.
Da gibt es aber auch neuere Sachen

Gruß ré
 
hi

FYI nexenta basiert auf opensolaris und als version koennte man
sagen 2010/06 .

halt dev build 134 , sprich die letzte version die man downloaden kann von
opensolaris.

die haben da noch ne gui bei gepackt so das es ne easy to use storage
appalince ist.

entspricht knapp dem was ich aufgebaut habe.
naechste woche mache ich bei mir den cluster wohl auch mit build 134 fertig.

halt nur ohne gui

holger
 
hi


entspricht knapp dem was ich aufgebaut habe.
naechste woche mache ich bei mir den cluster wohl auch mit build 134 fertig.

halt nur ohne gui

holger

Nur als Tip.....

Geh aber auf keine hoehere Kernel Revision, sonst funktionieren die OPEN-HA Cluster Pakete nicht mehr richtig und Dir bleibt nur selber kompilieren des Clusters vom Colorado Trunk. Vor allem gibts zwischen Build 134 und dem aktuellen Build neue SMF Services die das Ding brechen.

Plan auch genuegend Netzwerkkarten her und nimm mindestens zwei allein fuer den Interconnect pro Knoten.

Edit:
Denk auch dran.... ZFS ist kein Clusterfilesystem.... Du kannst nur Failover machen.
Falls Du schon ZFS Pools am laufen hast...
Exportiere die Pools unbedingt, bevor Du den Cluster anwirfst, sonst hast Du gute Chancen das dein Pool Hopps geht. Stell sicher, das alle Pools vom Cluster verwaltet werden! HAstorage Plus ist Dein bester Freund.

Sonst fuehrt Solaris doppelte Cache Files und der Pool zerfrisst sich selbt.

Glaub mir ich kann ein Lied davon singen.
 
Zuletzt bearbeitet:
hi

ich wollte die build 134 nehmen.

es sind eh nur 2 machinen geplant aktiv / passiv somit nur i interface fuer
interconnect.

desweiteren hate ich gesdacht das ich eine zone aufsetze , die auf den ha
ip hoert , und nur dort die shares etc fuer nfs , cifs und iscsi bereit stelle.
und das storage plus muss ich schon nehmen da es sonst
nicht funktioniert an einem jbod 2 systeme zu haben.


holger
 
hi

ich wollte die build 134 nehmen.

es sind eh nur 2 machinen geplant aktiv / passiv somit nur i interface fuer
interconnect.
Also reines Failover Szenario.

desweiteren hate ich gesdacht das ich eine zone aufsetze , die auf den ha
ip hoert , und nur dort die shares etc fuer nfs , cifs und iscsi bereit stelle.
und das storage plus muss ich schon nehmen da es sonst
nicht funktioniert an einem jbod 2 systeme zu haben.


holger

Ach funktionieren tut das schon mit mehreren System am JBOD. ;)


Wenn Du Schwierigkeiten damit hast die Zone in den Cluster zu nehmen, lass es mich wissen.

By the way Interconnect, du kannst rein theorethisch auch hergehen und ein Crossover Kabel nehmen wenn die Kisten im gleichen Schrank stehen sollen. Dann bräuchtest Du keinen Switch dazwischen. Wirklich HA ist das zwar nicht, aber es funktioniert und wir offiziell supportet.

Bei NFS aufpassen, unbedingt eine HAnfs Ressource und HALogiclhostname anlegen parallel zum HA Storage Plus und auch bitte vermeiden ZFS Share (egal ob NFS oder CIFS) ohne Clusterkontrolle aus dem Pool rauszumappen, sonst kannst Du Dir den Pool unter bestimmten Umständen zerschiessen und lustig dabei zu sehen wie er sich auffrisst.

Aus den drei Ressourcen eine Ressourcegruppe bilden und schon rennts. ;)

Ein zweites JBOD hast Du nicht? Das wäre IMHO die beste Loesung, dann koenntest Du ueber Kreuz spiegeln.

Den Sun Cluster Guide hast Du schon?
Ist zwar viel heisse Luft drin, aber auch sehr sehr viel gutes, unbedingt besorgen.

Ach ja unbedingt den Sun Explorer installieren, das vereinfacht die Fehlersuche sehr. :)

Die Shell Environment Variablen anpassen.

Noch was, wenn Du DIr einen Gefallen tun willst, bau den Bootspiegel mit SVM.
Im Zweifelsfall kommst Du sehr viel einfacher an die Platten ran, falls Du einen Crash haben solltest.
ZFS als Root geht zwar und wird mittlerweile auch offiziell supportet, wir haben das auch getestet, aber im Crashfall hast Du mit einem RPOOL mehr Probleme als ohne.
Nenn mich einen "Hoschenseisser" und Angshasen, aber ich hab da so meine Erfahrungen gemacht. ;)

Willst Du mit Quorum Server arbeiten, oder nimmst Du den JBOD als Quorum?
Rein aus Ueberzeugung wuerde ich den JBOD nehmen. Das ist einfach sicherer.

Also solltest Du Fragen haben, ich helfe gern. :)
 
Zuletzt bearbeitet:
Zurück
Oben