FS over Ethernet

LeoLinux

Well-Known Member
Hi,

ich muss mich für ein gemeinsam genutzes FS entscheiden und hätte da mal gerne Meinungen und Knowledge von euch eingesammelt ;)

Da wäre z.B. Samba, FTP, DAV, NFS, SSH ... etc. ...

Samba möchte ich eigentlich auf keinen Fall verwenden, da ich nur schlechte Erfahrungen gemacht habe ...: smb ist mir z.B. schon öfters einfach so abgeschmiert und kam dann erst wieder hoch, wenn man es manuell wieder neugestartet hat. Genau so ist das gemountete smbfs gestorben wenn der smb Server mal kurz tod war / neugestartet worden ist.

Mit NFS habe ich noch nicht so viel Erfahrung ... DAV ebenfalls, SSHfs könnte in Frage kommen, da ich von Möglichkeiten weiß die Timeouts einstellen zu können .. etc.


Letztendlich soll der FS Server irgendwo im Internet unter einer statischen IP parat stehen - der FS-Client soll ebenso irgendwo anders im Internet unter einer public IP parat stehen. ABER man weiß eben nie, ob der Internet anbieter die Verbindung mal für ne Millisekunde kappt oder nicht. Und da hätte ich eben schon gerne ein FS das dennoch "gemountet bleibt" ... Zudem wäre es schön zu wissen, dass falls die Verbindung doch mal verloren geht, dass alle Files geschrieben wurden - d.h. nichts mehr auf dem Client gecached ist ...



Kann mir jemand Tipps geben?


Grüße
 
Mit DAV habe ich keine Erfahrung, zu allem anderen würde ich sagen, dass es nicht ausfallsicher ist. Also wenn die Verbindung gekappt wird hängen die Programme die draufzugreifen auf jeden Fall. Das ist afaik aber immer so, wenn du mal was gemountet hast, dass dann kurz nicht da ist. Da blocken dann halt die Programme.

Ich habe da vor allem Erfarung mit NFS und sshfs gemacht. Man sollte außerdem berücksichtigen, dass wenn die Verbindung nicht wirklich schnell ist, normaler Desktopbetrieb auf den Dateisystemen garnicht möglich. Also KDE und Gnome haben alle Dienste die das Dateisystem queryen, so dass alle Programme permanent kurz freezen.

Wenn du nur leichtgewichtige Sachen, wie shell, ncmcpp, mc etc verwendest, sollte es aber sowohl mit sshfs, als auch mit NFS gehen.

Was sehr gut geht, ist mit KDE-Kioslaves zu arbeiten. Da wird friert nichts, weil die Anwendungen wissen, dass die Ressource remote ist, man kriegt beim Schreiben Fortschrittsbalken etc. Sehr praktisch. Geht aber halt nur mit KDE-Anwendungen.
 
Danke für deine fixe Antwort.

Im Prinzip sollte die Verbindugn permanent bestehen - es kann (laut Logbuch meiner Fritz.Box) mal ab und zu zu einem schnellen reconnect kommen - IP bleibt aber dennoch statisch erhalten. Dass di Programme während dieser überbrückungszeit nichts schreiben können ist klar - es sollte nur nach der hunderstell/milli-Sekunde zu keinen dauerhaften Freezes in den Programmen kommen, weil sich der mount-Thread aufgehangen hat ... diesbezüglich kann ich SSHfs halt tunen und tolleranz Werte bezüglich Timeouts mit geben - soweit ich das noch im Kopf habe.
NFS evtl. auch ... ?!


Letztendlich läuft auf der Kiste unter anderem ein Mail wobei die Mails mit dem FS Server in Echtzeit synchronisiert werden müssen ...
 
Jawoll - ich denke ich werde mich für NFS entscheiden.
Es sieht so aus, als ob es mir alle Optionen bietet, die ich mir vorgestellt habe.

Danke für den Hinweis


Grüße
 
übers internet würde ich nichts unverschlüsseltes machen.. und wenn dann nur durch ein vpn oder einen ssh-tunnel
 
übers internet würde ich nichts unverschlüsseltes machen.. und wenn dann nur durch ein vpn oder einen ssh-tunnel


Einen dauerhaften "mount" über ein VPN laufen zu lassen ist mir ehrlich gesagt etwas zu heiß ...

... also schlägst du mir in anderen Worten sshfs vor?!
... oder tatsächlich einen "mount" über einen geforwardeden ssh Port?

Grüße
 
Vielleicht ist ja auch owncloud was, entweder statt oder zusätzlich zu NFS.

NFS würde ich übrigens auch über OpenVPN machen nicht alleine. Wobei NFS4 vielleicht ja auch crypto anbietet, weiß ich nicht. Ich konnte bist jetzt übrigens mit nfs über openvpn nicht mal 2/3 des Durchsatzes von sftp erreichen, wobei da jetzt auch andere Sachen (CPU auf client/server…) ausschlaggebend sein könnten.
 
Einen dauerhaften "mount" über ein VPN laufen zu lassen ist mir ehrlich gesagt etwas zu heiß ...

... also schlägst du mir in anderen Worten sshfs vor?!
... oder tatsächlich einen "mount" über einen geforwardeden ssh Port?

Grüße

Am Besten nur mount bei Bedarf.. und dann über sshfs oder sftpfs oder sowas..
 
Wenn du den Administrationsaufwand nicht scheust, kannst du dir ja mal AFS angucken. Zusätzlich braucht man dafür nen Kerberos Realm. Ich weiß ja nicht wieviele Benutzer du bedienen willst, aber der Aufwand lohnt erst bei größerer Anzahl ;)
 
Wie gesagt - es soll dazu dienen auf zwei Servern die Mailbox aubzugleichen - bzw - zwei Mailserver sollen auf ein und den selben Speicher zugreifen - sodass die Mailbox der User immer gleich ist. der eine ist eben mx1.domain.tld und der Andere is dann eben mx2.domain.tld ... beide stehen aber an unterschiedlichen Orten und können nur über das Internet kommunizieren.

deshalb dachte ich mir, dass ich die Biden über ein FS versorge.

Wie löst man so etwas sonst? Bin für alle hilreichen Tips offen

Grüße
 
Wenn es nur zwei Maschinen sind, könntest du dir auch HAST anschauen. Das Teil ist neu in FreeBSD 8.1 und hält zwei Dateisysteme auch über weite Entfernungen hinweg synchron. Siehe: http://wiki.freebsd.org/HAST
 
Wenn es nur zwei Maschinen sind, könntest du dir auch HAST anschauen. Das Teil ist neu in FreeBSD 8.1 und hält zwei Dateisysteme auch über weite Entfernungen hinweg synchron. Siehe: http://wiki.freebsd.org/HAST

Das hört sich genial an!!! Leider werden es aber nur zu Beginn zwei Maschinen sein ... später soll das ganze wachsen.
In welcher Phase der Entwicklung bzw. stabilität könnte man das Projekt bezeichnen?

Grüße
 
HAST ist mit zwei Maschinen produktiv einsetzbar. An mehreren Maschinen wird derzeit gearbeitet.
 
Wie machen das denn eigentlich die "Profis" so?!
Wie regelt z.B. GMX, WEB.de oder GoogleMail das? ... Auch Strato bzw. mittlerweile glaube ich 1&1 möchte ja, dass auf all ihren Servern der gleiche Webcontent ihrer Kunden vorhanden ist - und die Server sind ja bestimt auch mit Heartbeat-Techniken hochverfügbar miteinander verbunden etc. ...?!
 
Wie machen das denn eigentlich die "Profis" so?!
Wie regelt z.B. GMX, WEB.de oder GoogleMail das? ... Auch Strato bzw. mittlerweile glaube ich 1&1 möchte ja, dass auf all ihren Servern der gleiche Webcontent ihrer Kunden vorhanden ist - und die Server sind ja bestimt auch mit Heartbeat-Techniken hochverfügbar miteinander verbunden etc. ...?!
Das ist ja ein etwas anderes Problem. Die nutzen sicher einen IMAP-Server als MDA und beim Cyrus weiß ich, das der schon lange verteilte und redundante Backends unterstützt.

c.
 
Zuletzt bearbeitet:
Das ist ja ein etwas anderes Problem. Die nutzen sicher IMAP als MDA und beim Cyrus weiß ich, das der schon lange verteilte und redundante Backends unterstützt.

Also, wenn ich dich richtig verstanden habe, dann hat Cyrus eine interne Funktion um seine Maildirs/boxen zu clustern, richtig?
 
[QUOTECyrus "Replication" und "Murder"[/QUOTE]
Besten Dank für den Hinweis.

Wäre interessant für mich ob es so etwas auch für Dovecot gibt ...

Grüße
 
Zurück
Oben