Mehrere FreeBSD-Server synchronisieren

Morfio

Well-Known Member
Hi,

ich habe demnächst vor, drei FreeBSD-Server zu installieren. Davon ist einer ein NIS-Master, zwei NIS-Slaves. Alle drei haben die selben Aufgaben.

Nun würde ich diese gerne so zusammenfassen, dass eine möglichst hohe Redundanz entsteht (eine Art Cluster).

Dafür dachte ich an HAST. Damit scheint es mir aber nur möglich zu sein, zwei Devices synchron zu halten (also /dev/da0 auf Server 1 und /dev/da0 auf Server 2).

Gibt es

1. die Möglichkeit, Verzeichnisse automatisch "on the fly" zu synchronsieren? Und das auf mehr als zwei Maschinen?
2. die Möglichkeit, mehrere Maschinen (selber Bauart) mit Programmen und Patches synchron zu halten?

Vielen Dank an alle, Morfio
 
Ich sehe, dass dir noch niemand antwortet und weil ich das nicht gerne habe, will ich mal was sagen. Allerdings bin ich ja unbedarft und meine Ratschläge nicht wirklich nützlich.

Wie wärs, wenn du alle entscheidenden Daten/Verzeichnisse auf einem zentralen Raid-Server zusammenführst und dann übers Netzwerk verteilst? Etwa über NFS?
Über Synchronisierung brauchst du dir dann keine Gedanken zu machen.
Wie das funktioniert, wenn mehrere Rechner tatsächlich auf gleiche Dateien, Systemdateien zugreifen, weiß ich allerdings nicht. Spontan kann ich mir einige lustige Verwirrungen vorstellen.
Vielleicht ginge es aber, jedem ein eigenes System auf dem Raid zu geben und ein gemeinsames Datenverzeichnis und eines für die Patches.
? Nur mal so.
 
Hi,

vielen Dank für die Antwort. Ein Storage-System war ursprünglich schon geplant, aber wir haben uns erstmal dagegen entschieden, da die Infrastruktur so bereits da war und die Kosten natürlich nicht unerheblich sind, denn wir hätten zum eigentlichen Storage ein Not-Storage kaufen müssen, da wir die wichtigen Server alle doppelt haben.

Sie sind mehr oder minder unabhängig von einander und haben die selben Daten. Fällt einer aus, dann kann der andere mit ein paar Sekunden Handarbeit die Arbeit übernehmen (mit Clustern usw. habe ich mich bisher noch nicht beschäftigt, vllt. wäre das eher die Lösung).

Letztlich ist das System, von dem ich hier rede, für uns so wichtig, dass wir einen zweiten Ersatzserver geordert haben (damit ist es ein theoretischer Verbund aus drei Servern), die an unterschiedlichen Orten (im selben Gebäude) stehen.

Bisher haben wir die Synchronisierung Nachts mit rdist gemacht. Ich denke, dass es genau darauf wieder hinausläuft, nur, dass wir den Sync häufiger durchführen (jede Stunde bsplw.). Selbst, wenn HAST in der Testkonfiguration funktionieren würde, hätten wir immer noch das Problem mit dem dritten Server.

Viele Grüße, Morfio
 
Nun, Cluster und so kenne ich auch nicht aus der Praxis.
Wenn die Rechner tatsächlich gleiche Daten haben, wäre aber doch vielleicht sinnvoll, diese auf einem PC zusammen zu führen und dann den anderen wieder zu verteilen. Natürlich sollte der eine dann Ausfallsicher sein.
Zur Synchronisation allgemein nutze ich selbst am liebsten rsync, das einfach, schnell und gutist, sowohl lokal benutzt werden kann, als auch über Netzwerk und dort mittels Cron-Job aufgerufen und in einem Client-Server Modell und auch Dämonisiert werden kann. Ich selbst habe schnell nur die lokale Anwendung und mittels cron benutzt (wobei natürlich lokal eingebundene NFS_Freigaben nicht wirklich lokal sind, aber eben wie lokal behandelt werden können).
Es finden sich aber hier auch Artikel über andere interessante Tools, ich erinnere die nicht mehr genau. unison war wohl eines und dann gab es noch andere, etwa http://www.bacula.org/en/. Es muss da einen Thread geben.
HAST kenne ich nicht und glaube, dass es auch nicht genannt wurde.
 
hi

also wenn es nur darum geht config datei ggf hin und herzuschieben
( z.b. es wir auf rechner a : ein datei editiert und die muss dann nach
rechner b und c verschoben werden ) dafuer kann man z.b. rsync nehmen
oder , in meinem falle , habe ich mir dafuern ne perl daemon geschrieben
der spezifische dateien ueberwacht und diese dann verteil und , wenn man
es will , auch den process neu startet.

was das thema storage betrifft ? wozu backup storage ? was ist das fuer ein quatsch.

es gibt fertige loesungen die voll redudant sind und kosten guenstig ( siehe netapp 2000 serie ) sind .

alternativ kann man mit opensolaris , den entsprechenden zusatz modulen ( opensolaris cluster ) und entsprechender hardware ein redundantes storage aufbauen.

siehe z.b. hier
http://docs.sun.com/app/docs/doc/817-5681/eypqt?a=view

wobei die angegeben gehaeuse ersetzbar sind mit alternativen herstellern.
( sie muessen nur clusterfahig sein ... ein hinweis dafuer ist wenn ms cluster
irgendwo in der produkt beschreibung steht. )

mfg
holger
 
Hallo,

hi

also wenn es nur darum geht config datei ggf hin und herzuschieben
( z.b. es wir auf rechner a : ein datei editiert und die muss dann nach
rechner b und c verschoben werden ) dafuer kann man z.b. rsync nehmen
oder , in meinem falle , habe ich mir dafuern ne perl daemon geschrieben
der spezifische dateien ueberwacht und diese dann verteil und , wenn man
es will , auch den process neu startet.

Es geht darum, ca. 1.5 TB zu überwachen und durch die Gegend zu schicken bei laufenden Änderungen. Deshalb dachte ich an HAST, was ich aber noch nicht zum Funktionieren überreden konnte. Innerhalb der 1,5 TB sind auch noch mehrere Jails.

Greift dein Perl-Daemon KQueue ab oder nutzt Poll, um Dateien zu überwachen oder wie genau machst du das? Vllt. wäre das für unser Problem die Lösung.

was das thema storage betrifft ? wozu backup storage ? was ist das fuer ein quatsch.

Haupt-Storage ist im Serverraum, Backup-Storage an einem anderen Ort. Was ist, wenn das Storage mal defekt ist? Deshalb haben wir alle wichtigen Systeme halt doppelt.

es gibt fertige loesungen die voll redudant sind und kosten guenstig ( siehe netapp 2000 serie ) sind .

alternativ kann man mit opensolaris , den entsprechenden zusatz modulen ( opensolaris cluster ) und entsprechender hardware ein redundantes storage aufbauen.

siehe z.b. hier
http://docs.sun.com/app/docs/doc/817-5681/eypqt?a=view

wobei die angegeben gehaeuse ersetzbar sind mit alternativen herstellern.
( sie muessen nur clusterfahig sein ... ein hinweis dafuer ist wenn ms cluster
irgendwo in der produkt beschreibung steht. )

mfg
holger

Ja, an sowas hatte ich auch gedacht, aber wegen den Kosten erstmal wieder verworfen. Unsere Lösung wäre ja ok, wenn wir eine effiziente Synchronisierung hätten.

Viele Grüße, Morfio
 
Hallo,



Es geht darum, ca. 1.5 TB zu überwachen und durch die Gegend zu schicken bei laufenden Änderungen. Deshalb dachte ich an HAST, was ich aber noch nicht zum Funktionieren überreden konnte. Innerhalb der 1,5 TB sind auch noch mehrere Jails.

Greift dein Perl-Daemon KQueue ab oder nutzt Poll, um Dateien zu überwachen oder wie genau machst du das? Vllt. wäre das für unser Problem die Lösung.

mein daemon ueberwach die inode der datei ( bzw dessen aenderung )
was auch recht zuverlassig funktioniert.

habe das ganze zz auf max 10000 file begrenzt was aber nur deswegen ist
um ueberhaupt ne grenze zu haben, sprich das ganze kann auch deutlich mehr sein theroretisch.

kqueue laesst sich aber auch recht schnell implementieren, jedoch habe ich versucht eine loesung zu bauen die unabhangig vom eingesetzten
OS und dessen funktionen ist. ( es sollte sogar moeglich sein das ding
unter windows ans laufen zu bringen , nach ggf anpassungen fuer die
windows spzifica ).

aktuell wird hat im interval X gescannt .... wird eine veraenderung festgetellt ,
sei es veranderung , neu , oder geloscht ) dann gibt die ueberwacht an das
modul einen entsprechenden status zurueck und man kann dann selber bestimmen ( action ) was mit der datei gemacht werden soll.

ergo eigentlich kann man selber recht gut bestimmen was passieren soll,
mein daemon gibt nur das greruest fuer die ueberwachtung.

falls interesse da ist . kann ich am montag mal ein packet mit den benotigten
modulen / programmen zippen und per mail zukommen lassen,

das waehre dann der daemon samt zubehoer + 1 - 2 beispiele wie so ein
modul aussehen kann.

es waehren ein paar perl kenntnisse noetig fuer das modul .

die eintrichtung der daemon findet nur via einer config datei statt.

mehr per mail denke ich dann

mfg
holger
 
Es sieht so aus, als sei ggate mit gmirror für uns die Lösung. Morgen folgen Tests, ich werde dann darüber berichten.
 
Back
Top