Das beste Tool zur Datensicherung

Mardor

Well-Known Member
Hallo,

gibt es eine Möglichkeit über Freebsd einfach Sicherung des gesamten Freebsd durchzuführen, so dass bei einer Fehlkonfiguration nur ein File mit dem gesamten Freebsd zurückgespielt werden muss.

So wie ich mitbekommen habe würde soetwas mit "dump" realisiert werden können, allerdings bräuchte man hierzu ein Bandlaufwerk. Ich wollte dies aber auf eine andere Festplatte sichern.

Mit "afio" wäre ein Backup auch möglich, ich suche aber eine Methode wie ich schnell wie bei einem Image der kompletten Festplatte ohne Partitionieren, Einrichten etc. den alten Zustand sehr schnell bekommt.

Das Tool soll nur für die Konsole nutzbar sein.

Gruß Mardor
 
Hallo,

also bei OpenBD (gilt denke ich auch für FreeBSD) kann man beu "dump als Ziel Bänder, komplette Festplatte oder eine Einzelne Datei auswählen:

[19:42:48] <Commanderzed> -f file
Write the backup to file; file may be a special device file like
/dev/rst0 (a tape drive), /dev/rsd1c (a disk drive), an ordinary
file, or `-' (the standard output). See also the TAPE environ-
ment variable, below.

Multiple file names may be given as a single argument separated
by commas. Each file will be used for one dump volume in the or-
der listed; if the dump requires more volumes than the number of
names given, the last file name will be used for all remaining
volumes after prompting for media changes. If the name of the
file is of the form ``host:file'' or ``user@host:file'', dump
writes to the named file on the remote host using rmt(8).
 
Mit dem Schalter -f kannst Du mit dump in eine Datei sichern. Um das Anlegen von Slices, das Erstellen eines Disklabels und das Erzeugen eines Dateisystes nach einem Plattenausfall kommst Du aber nicht herum.

Gruß c.
 
Ich arbeite nun lange mit FreeBSD-Installationen, vor allem mit mehreren Servern und Arbeitsstationen.

Ein Dump einer Installation hat sich bis jetzt noch nie bewährt (aka dump oder sogar dd), wohl aber ein Backup der kompletten Konfigurationen + Daten.

Ein Rumpf-FreeBSD ist schnell installiert - 10 Minuten wenn mans öfter macht - und alles weitere lässt sich sehr schnell aus Backups wiederherstellen.

Empfehle bacula: http://bacula.org/ - auch in den Ports vorhanden

Gewiss erfordert das einige Einarbeitung bzgl. Konfiguration, aber wenn man da alles wichtige (z.B. /etc, /usr/local/etc/, /home, /var/xxx, /boot/, /root usw.) mitnimmt, ist ein Restore ein Kinderspiel. Wenn man für den Ernstfall das Restore so konfiguriert, dass eine Wiederherstellung z.B. nach /bacula-restore geht, dann kann man easy die benötigten Files einfach wieder zurückkopieren.

Praxis-Beispiel: Im Fall einer Arbeitsstation kann man, mehrfach erprobt, auch die Config(!) der installierten Ports (im FileSet '/var/db/pkgdb' eintragen) wiederherstellen. Per 'portupgrade -f -b -PP' werden alle vorher installierten Packages aus Binary-Packages wieder installiert. Funktioniert top, wenn man bei xx-RELEASE-Stand bleibt.

Bacula erfordert wie alle Backup-Systeme natürlich
1. Config-Arbeit
2. langlebige Backup-Medien/Systeme
aber ist - wenn richtig konfiguriert -eine Allzweckwaffe.

Es gibt auch andere Backup-Systeme wie z.B. amanda, aber bacula hat sich bei mir den ersten Platz in der Praxis erobert.

rsync und Konsorten haben natürlich nie ausgedient, kommt nur drauf an, von was und wie man Backups machen will (und wie viel Platz man für Backups reserviert).

Lange Rede kurzer Sinn: Wenn man die essentielle Config+Daten eines gesamten Systems sichert, ist das Neuaufsetzen ein Kinderspiel. Was Daten betrifft, sowieso. Dump unnötig.

Hoffe ich habe nicht mit Kanonen auf Spatzen geschossen :)
 
Last edited:
Du könntest ein Plattenimage anlegen, das ist quasie die Holzhammer-Methode, bei der alles (also auch Partitionstabellen und Bootsectoren) mitgesichert wird. Allerdings wird das inkonsistent, wenn du das im laufenden Betrieb tust.
 
Habs unter Linux immer mit Acronis gemacht, um mir mal die "Baseline" zu ziehen. Und dann eben täglich ein Tar backup des Wurzelverzeichnisses bzw. der relevanten Slices.

Acronis geht nur nicht mit UFS soweit ich weiß. (vielleicht in der aktuellsten version?)

Wie schon gesagt wurde ist es wohl am geschicktesten, ein tar backup aller daten zu fahren. Sollte der Server echt komplett versagen, setzt du dir ein nacktes System auf (vorher dementsprechend partitionieren), und jagst dann den "restore" drüber (also files ausm tar reinkopieren) ;-)
Funktioniert super, da Unix basierte Systeme zum Glück nicht sowas wie eine komplizierte und meiner Meinung nach allzu anfällige Registry haben! (danke ms)


Was noch anzuraten ist: wenn es wichtige Maschinen sind, auf jeden Fall immer die aktuell gültige Partitionierung irgendwo notieren. Falls es kracht hast du dann keine Troubles nachzuvollziehen was Sache war. Dann geht das aufsetzen der neuen Installation echt in Minuten.

Für zeitkritische Installationen wären zeitversetzte Snapshots nicht schlecht, aber das geht zu weit *g*
 
Ich sehe nur beim Erstellen und beim Zurücksichern Probleme.

Wenn ich beispielsweise das Backup mit afio erstelle dann weis ich nicht ob wirklich alle Dateien (auch die zur Zeit in Verwendung sind) tatsächlich gesichert werden.

Beim Zurücksichern sehe ich es als noch problematischer an:
Wenn ich ein "blankes" Freebsd installiere. Dann afio als Port installiere und dann das Backup zurückspiele dann:

1. Können Dateien, welche zur Zeit (während des zurücksichern) in Benutzung sind nicht zurückgesichert werden (oder ?)

2. Sind bereits in meinem (alten) System gelöschte System-Dateien wieder vorhanden

Hätte hier noch jemand einige Tipps für mich ?

Gruß Mardor
 
Wie es mit besagtem Programm aussieht kann ich nicht sagen.

Was ich allerdings, aus eigener Erfahrung, sagen kann ist, dass ein erstellen eines tar archives von / (ohne /dev und temporärer Verzeichnisse bzw. spool geschichten)
mir noch nie eine Datei zurückgelassen, oder korrupt gesichert hätte.

Neben einigen kleinen Wiederherstellungen habe ich das tar der Wurzel (alles auf einem slice) schon mal gebraucht da ich damals echt Mist gebaut habe. Anstatt auf dem Testsystem die Webaccounts von ca. 100 Usern zu löschen habe ich zufällig das Produktivsystem erwischt. ups. Jedenfalls war das die Feuerprobe. Und es funktionierte tadellos, sogar bei mysql war alles wieder da, obwohl ich nur die dateien gesichert hatte und keinen dump der db's ansich. Jetzt mach ich aber lieber doch einen mysqldump aller DB's und knalle diesen in das tar mit rein.

Soll heißen, dass ich mir 2/3 der Kundendaten (Mails, Logininfos, Datenbanken, Webseiten etc.) gelöscht habe. Das Wiederherstellen klappte aber tadellos!

Aber bitte mach es nicht so wie ich. Hatte echt Glück ;-)
Teste deine Backups bzw. das Konzept vorab auf funktionstüchtigkeit. Nichts ist beschissener als ein geglaubtes Backup zu haben welches im Ernstfall für die Nüsse ist!
 
Ich arbeite nun lange mit FreeBSD-Installationen, vor allem mit mehreren Servern und Arbeitsstationen.

Ein Dump einer Installation hat sich bis jetzt noch nie bewährt (aka dump oder sogar dd)

Da würd mich mal interessieren, was nicht hingehauen hat.

Ich nutze ausschliesslich dump und habe bisher nie Probleme beim Recover gehabt.
 
Das würde mich allerdings auch mal interessieren, was da nicht hingehauen hat, damit nicht doch noch ein böses Erwachen auf einen zukommt obwohl sich bis jetzt keine Probleme angebahnt haben bzgl. des Backup/Recovery-Konzepts.

Neulich erst habe ich wieder eine Produktionsmaschine mit allen Dumps in einer Testumgebung nachgebildet und da hatte alles gepasst. Klar, die Ziel-Hardware war nicht identisch, so dass kein Raid-Controller, andere Netzwerkkarten, etc. zur Verfügung standen.

Auch gab es mit dem tagtäglichem Erzeugen von Dumps (dump -${dlevel}uLa -f ${dump_file} ${mnt}) seit der 6.1 (2006/08) bis jetzt zur 6.3 (6.2 wurde ausgelassen) in der Produktion keinen Zwischenfall.
 
Ich denke, es ging ihm nicht darum, dass die Dumps defekt waren. Dump ist sehr zuverlässig und anders als bei anderen Backupmethoden kann ich nicht nicht daran erinnern, dass es jemals Probleme gegeben hätte. Er wollte wohl eher sagen, dass Dump ein sehr dummes Programm ist, was einfach alles sichert (man kann zwar nodump setzen, aber das ist auch irgendwie doof). In anbetracht des Speicherverbrauchs wäre es sinnvoller nur das einer Installation zu sichern, was sich nicht eh ohne Backup wieder herstellen lässt.
 
Da würd mich mal interessieren, was nicht hingehauen hat.

Ich nutze ausschliesslich dump und habe bisher nie Probleme beim Recover gehabt.

Die Tools funktionieren natürlich recht gut, kommt aber auf den Einsatzzweck an. Für nen kurzen Snapshot sind dump, dd, tar super geeignet.
Aber wenn man seine Daten über nen langen Zeitraum, z.B. über einige Jahre sichern will, einfach ungeeignet.

Nachteil von Archiven langfristig - wie schon erwähnt: groß, unflexibel
- eine bestimmte Datei xyz von vor ca. 4 Wochen finden, ist mit dump und Konsorten ein Ding der Unmöglichkeit - keine History, welches File mit welchem Datum wo drinsteckt
- dumps über ein Jahr wegzusichern braucht ein paar TB-Platten

Kurzfristig, wenn man nur nen Snapshot sichern will, tar/dump nehmen.
Langfristig(!), um z.B mehrere User+Datenbanken zu sichern, aber nicht wirklich brauchbar, da sind Systeme wie bacula einfach besser geeignet.

Mir persönlich ist schon wurscht, welches OS grade läuft, Hauptsache ich komme an die Daten, die brauche...

EDIT:
Wollte nur nochmal den Einsatzzweck betonen - Backup nur mal eben machen oder Mailboxen über 2 Jahre aufheben (und zuverlässig zurücksichern) erfordert einfach andere Tools...
 
Last edited:
Back
Top