Welche Backup-Strategien verwendet ihr?

sterum

Well-Known Member
Angeregt durch diesen Thread https://www.bsdforen.de/threads/wie...andozeile-anzeigen-bzw-herausschreiben.37016/ und da aktuell bei mir wieder mal eine vierteljähliche Datensicherung ansteht wollt ich mal in die Runde fragen wie bei euch die Backup Strategien im privaten Umfeld aussehen.

Ich verwende für mich ja noch ein uraltes Tool vom ehemaligen PC-BSD Projekt Namens life-preserver. Das Tool ist im wesentlichen um ein rsync Skript herum gebaut und basierte am Anfang auf QT4. Für mich habe ich es dann mal auf QT5 portiert. Damit erstelle ich täglich (wenn der Rechner eingeschaltet ist) ein Backup vom home Verzeichnis auf dem NAS. Aktuell habe ich 10 Versionen eingestellt was durch Verwendung von Hardlinks auch noch relativ platzsparend ist. So bin ich auch ein wenig für ein versehentliches löschen von Dateien oder ähnlichem gerüstet.
Der rsync Befehl sieht dann so aus:
Code:
rsync -avvRHz \
  --delete \
  --delete-excluded \
  --rsync-path="rsync --fake-super" \
  --perms --chmod=o-t \
  --log-file=${BACKLOG} \
  --exclude-from ${TMPEXCLUDELIST} \
  -e "ssh -p ${PORT}" \
  --link-dest=../current \
  ${BACKUPLIST} ${SSHHOST}:${BACKDIR}/incomplete_back-$DATE
Zusätzlich erstelle ich dann noch in etwa vierteljählich ein Backup auf Bluray. Da wird aber nicht das ganze home Verzeichnis gesichert, sondern nur die wirklich wichtigen Daten, wie Fotos, Videos und Dokumente. Musik und Filme werden nicht gesichert, da ich die - wenn auch mit etwas Aufwand - von anderen Quellen wiederherstellen kann.

Die wichtigsten Konfigurationsdateien aus /etc und /usr/local/etc hab ich auch im home Verzeichnis liegen, so werden diese auch auf das NAS mitgesichert.

Auf dem Windows Laptop meiner Frau verfahre ich im Prinzip auch so, nur kommt hier ein anderes Tool namens Personal Backup zum Einsatz.

Die Fotos der Smartphones werden mit Syncthing auf das NAS synchronisiert sobald sie sich im WLAN befinden. Vom NAS werden diese Daten dann zu den jeweiligen Rechnern in das home Verzeichnis bzw. in die Eigenen Dateien synchronisiert von wo aus sie dann auch wieder im Backup landen.

Ob diese Strategie im Ernstfall dann etwas taugt kann ich aber nicht wirklich sagen, da ich sie noch nie gebraucht habe.
 
Rein Privat:

Ich ziehe erstmal alle Daten auf mein "NAS" (Ein kleiner stromsparender OpenBSD Server). Von meinem Windows-Notebook per rsync (WSL), dito von 2,3 anderen Systemen - so viel hab ich da aber garnicht..
Das NAS zieht sich selber außerdem von meinen wenigen anderen Serverzeugs die Daten per rsync ergänzt um 2,3 selbstgestrickte scripts für maria-db etc.
Mitunter das "wichtigste" Gerät ist mir mein Smartphone, da ich gerne und viele Bilder mache die ich ungerne verlieren möchte. Das iPhone synct die Daten in meine eigene Nextcloud, und die wandert wiederherum, siehe vorheriger Punkt, auf das "NAS".

Da liegen die Daten erstmal, und wandern unregelmäßig auf externe 2,5" Festplatten, von denen eine sogar extern eingelagert ist um z.B. auch bei Diebstählen/Einbrüchen gewappnet zu sein.
Alle Systeme sind jeweils verschlüsselt.

Dabei kommt mir auf der einen Seite entgegen, das die Daten sich nicht sooo stark ändern bei mir oder die Änderungen ("Spielstände von alten DOS-Games") nicht so Mega relevant sind und es Unwahrscheintlich ist das mehrere Schadensereignisse gleichzeitig eintreten - also das z.B. sowohl der zentrale Speicher z.B. geklaut wird und zeitlich die Daten auf so einer gemieteten VM nicht mehr zugreifbar sind.
 
Meine üblichen Ablage-Ordner der Rechner werden per syncthing mit dem NAS gesynct. Alles andere wird wird stündlich per restic auf das NAS gesichert.
Das NAS selbst sichert täglich per zfs send alle sichernswerten Datasets auf eine externe Platte. Einmal die Woche werden die sichernswerten Ordner nochmal per restic an einen verschlüsslten Cloud Storage geschrieben. Zusätzlich mache ich (wenn ich daran denke) monatlich eine restic-Sicherung des NAS auf eine von zwei externen Festplatten im Wechsel.
P.S. und Bilder vom Smartphone werden per FolderSyncPro auf das NAS gesynct (durch Dauer-VPN auch wenn ich unterwegs bin).
 
Ich habe für meine persönlichen Daten eine eigene Partition angelegt. Diese Partition sichere ich einmal pro Woche auf externe Festplatten. (Da ich noch UFS nutze, erfolgt das Backup über dump.)
 
Erste Ebene: Stündliche ZFS-Snapshots der Shares
Tagliche Spiegelung der Shares auf nen QNAP NAS per rsync
Monatliche Spiegelung der Shares auf ne externe Platte
Home-Shares werden zusätzlich auf nen Server im RZ gespiegelt
Peinlicherweise nur sehr unregelmäßige Sicherung der relevanten Daten auf Tape. Ich nehme mir schon seit Ewigkeiten vor endlich mal Bareos einzurichten. Aber die liebe Zeit... Lieber Gott nimm mir alles, nur nicht meine Ausreden. :-)

Die Daten im RZ werden täglich gesichert (DB-Dumps, Mail-Conf, IMAP-Sicherung usw.) und dann von einer Kiste im Intranet abgeholt, auf ein Share gespeichert und mit den obigen Maßnahmen gesichert.
 
Privat habe ich alle Nutzdaten auf einem zentralen NAS, was per zfs send auf eine Rotation über drei verschlüsselte Platten gesichert wird. Von den Platten befinden sich jeweils zwei an unterschiedlichen Orten außerhalb meiner Wohnung, um gegen DInge wie Feuer oder Diebstahl geschützt zu sein. Auf die Platten gesicherte Snapshots bleiben 365 Tage erhalten.
 
Mein kleiner OpenBSD Server erzeugt lokal automatisiert 2x am Tag ein Backup mit restic. Das repliziere ich auf eine externe Platte.

Mein Arbeitsrechner sichere ich in unregelmäßigen Abständen manuell auch mit restic auf eine externe Platte. Die Backups dort kopiere ich mittels restics copy Funktion auf eine weitere Platte. Das läuft alles mit einem Script, damit der Ablauf immer gleich ist.

Im Anschluss an das Backup läuft direkt die Aufbewahrung, um Platz zu sparen. Je älter die Backups werden, desto größer wird der Abstand der aufbewahrten Backups.
 
Privat habe ich drei Backups, hauptsächlich mit restic:
  • Wichtige persönliche Dateien mit restic auf Cloud-Storage (S3) im Generationenprinzip
  • Alle persönlichen Dateien mit restic auf externe Festplatte im Generationenprinzip
  • Full System Backup mit rsync auf externe Festplatte (zur Zeitersparnis falls mal der Rechner komplett neu aufgesetzt werden muss)

Gründe für meine Entscheidung für restic als Backup-Tool:

Die Alternativen
  • Borg (unterstützt kein S3 o.ä. und ist damit für Offsite-Backups ziemlich untauglich)
  • Duplicacy (kommerzielle Lizenz)
  • Duplicati (sehr unzuverlässig)
  • duplicity (unterstützt nur ein inkrementelles Backup-Modell und ist damit für mich nicht alltagstauglich)
habe ich mir angeschaut und u.a. aus obigen Gründen verworfen.

Auf der grünen Wiese wäre wohl heutzutage Kopia das erste Tool, das ich mir anschauen würde. Damit habe ich aber noch keine Erfahrung gesammelt.
 
Ich betreibe ne zfs-NAS mit meinem zentralen $HOME drauf, die wesentlichen Daten davon halte ich mit syncthing zwischen der NAS, nem Laptop und nem PC gleich.

Die NAS sichere ich einmal Freitag Abends auf ne gesonderte Maschine (ausrangierter alter Rechner, FreeBSD14) mittels sysutils/zfs-autobackup, den ich nur zu diesem Zweck ein- und hernach wieder ausschalte;

Offsite ginge mittels ner externen USB3 Platte und den Content des Backuprechners per zfs send/recv dann auf diese Platte.
 
Wichtige Sachen habe ich in einem git Repo liegen. Das Repo-Gegenstück liegt auf einem Server bei Hetzner. Dieser sichert die Daten mittels borg zu einer Hetzner Storage Box.

Ansonsten habe ich noch meinen Home-Server. Dort liegen Daten zwar mindestens noch auf einer sehr großen Backup Platte, aber insgesamt gibt es keine Backup-Strategie. Es sind halt einfach zu viele Daten. Davon sind auch diverse Daten nicht unbedingt unwiederbringlich, es wäre halt nur Aufwand. Und im Falle "die Bude brennt ab", ist das zwar dann alles sehr schade, aber auch kein Weltuntergang.
 
restic.. frueh morgens auf eine USB platte daheim und dann morgens nochmal auf eine in der firma.

restore "toolkit" auf drei USB sticks (in der wohnung, im auto, in der firma). kit besteht aus keys (d'uh) und binaries
fuer macos, linux, windows..
 
Ich betreibe einen zentralen Server mit ZFS und sichere die Daten auf einen weiteren Server, der zumindest in einem anderem Raum steht. Ich bin dazu über gegangen, den zentralen Server ohne Plattenredundanz zu betreiben. Dafür ist mein Backup immerhin in einem RaidZ. Der Backup-Server zieht beim Start ein Backup des zentralen Systems mittels zfs-autobackup. Wenn sich keiner auf den Server einlogged, dann fährt er danach auch wieder herunter, so dass ich relativ unkompliziert ein Backup erstellen kann. Ich verwende ZFS Encryption, da ich so ein Backup ziehen kann ohne die Festplatten zu entschlüsseln. Leider gibt es wohl mit der ZFS eigenen Verschlüsselung einige Probleme. Ich überlege mir gerade, ob ich das ignoriere oder auf eine andere Strategie setze.
 
Telefone (iPhones) senden ihre Fotos via sftp nachts an den home server. Unterwegs (Urlaub oder so) öfter bis jedes Foto einzeln aufgenommen.
Andere Geräte (MacbookAir, Hackintosh sichern über Arq Backup per nfs oder sftp) auf den home server, das x270 ist eh nur Spielwiese, da ist nischt sichernswertes drauf.

Homeserver ist n raidz mit vier Platten, system liegt auf 2 ssds.

Backup-Kiste (noch sporadisch im Netz, soll später(tm) zu Mutti in den Keller) zieht sich Nachts snapshots der zfs datasets auf ein mirror aus zwei Platten.
 
Prima Backup-Strategien lese ich hier - Respekt. Dagegen ist mein Backup-System schlampig, unregelmässig und unstrukturiert. Immerhin sichere ich aber auf zwei verschiedenen NFS-Servern in unterschiedlichen Gebäuden. Bisher einfach mit cp, aber gedanklich arbeite ich schon seit Jahren an einer ordentlichen rysnc-Strategie. :cool:
 
iPhone und iPad werden der Einfachheit halber in iCloud gesichert; Dokumente und Fotos ebenfalls, um sowohl von iPhone/iPad/MacBook darauf zugreifen zu können. Das MacBook wird dann noch mittels TimeMachine auf insgesamt 3 externen Disks gesichert. Auf diesen Disks befinden sich dann zusätzlich noch weitere "wichtige" Daten.
Eine dieser Disks ist der Master, sprich - immer bei mir zu Hause. Von den beiden anderen Disks ist eine bei mir, eine extern, um im Falle von Einbruch/Feuer/... nicht komplett leer dazustehen. Diese beiden Disks werden im Normalfall wöchentlich rotiert, der Inhalt mit rsync aktuell gehalten.

Ansonsten sind hier derzeit nur noch ein Orange Pi Zero Plus mit FreeBSD und ein Raspberry Pi Zero 2 mit OpenBSD im Einsatz - da wird in unregelmäßigen Abständen mit dd ein Image der SD-Karte erstellt. Die beiden stellen nur ein paar Dienste intern bereit, sich regelmäßig ändernde Nutzdaten sind kaum vorhanden, somit reicht mir das als Backupstrategie vollkommen aus.

Restic, bzw. auch Kopia kannte ich bisher nicht, die werde ich mir bei Gelegenheit einmal ansehen.
 
Ich habs ja im anderen Thread etwas OT geschrieben, aber der vollständigkeit halber nochmal hier im Detail:

Notebook sowie Desktop sichere ich per rsync (unter win mit WSL) auf meinen Fileserver. Der betreibt ein Raidz1 mit 4 Platten. Gesichert wird ca. 2 mal im Monat, aber immer händisch. Berufliche Daten habe ich sowieso im GIT auf einem externen Server, ebenso habe ich für mach privates (z.b. meine Dokumente) ein GIT im Hintergrund laufen und commit/pushe sofort wenn ich da was ändere. Nach der Sicherung eines Clients erfolgt immer ein Snapshot. Jeder Client hat 1 Dataset.

Vom Handy werden die Bilder per syncthing gesichert, ab und an mache ich über adb ein komplettes Backup welches ich dann ebenfalls am Fileserver ablege.

Meine zwei RPIs werden automatisch vom Server aus mit rsync gesichert.


Liegt alles ersmtal am Fileserver mache ich von da an zum einen ein Backup auf eine externe 8TB Platte - da ist aber immer nur der aktuelle Stand ohne Versionen. Ebenfalls rsync. Im Falle des Falles kann ich davon aber alles zügig wiederherstellen (USB 3.2 Gen 2).
Um gegen Brand/Diebstahl und Co geschützt zu sein, wird von allen Backups monatlich ein fortlaufendes ZPAQ Archiv erstellt und verschlüsselt auf Amazon Deep-Archive gespeichert.

Per Snapshots auf dem Server komme ich ca. 4 Jahre zurück (damals hab ich den mal neu gemacht), mit den ZPAQ Archiven sogar bis 2018.
 
Restic, bzw. auch Kopia kannte ich bisher nicht, die werde ich mir bei Gelegenheit einmal ansehen.
mal vorab: bei jedem Beitrag in diesem Thread müsste ich eigentlich ein "Like" setzen. Ich gehöre aber einem Schlag Menschen an, die mit Lob nicht umgehen können. Deshalb sage ich hier mal Danke.

Seit vielen Jahren ändert sich bei mir die Strategie immer wieder, baut aber hauptsächlich auf nächtliche Sicherungen über rsync und seit einer Weile auch rclone.
Auf einen inzwischen arg verstaubten NAS (FreeBSD-7_irgendwas) ging es über NFS. Aus irgendeinem Grund wird das im Laufe der Zeit so langsam, dass mein PC bis am Morgen damit oft noch nicht fertig war.
Deshalb habe ich seit einiger Zeit auf interne SSDs mit einem Z-Mirror meine erste Sicherung gemacht. Zwei interne Ziele mit Redundanz >= 1 werden so zuerst benutzt. Von da aus geht es etwa wöchentlich manuell auf zwei externe Platten an USB3. Und zwar, komplettes /home, wobei ich hier auch meine VMs liegen habe.
Eine Auswahl der relevanten Arbeitsdaten wird extra gesichert und per rclone auf einen Platz bei meinem Provider gestellt. Diese Auswahl lege ich auch auf mehrere Sticks, die ich dann leicht mit mir rum schleppen kann. Auf die Sticks geht es aber nur unregelmäßig, im Zweifel sind die Daten ja im Netz vorhanden.
Auf den NAS gehe ich nur noch gelegentlich.
Alle Konfigurationsdateien, die ich im System mal geändert habe, kopiere ich auch in mein Heimatverzeichnis und habe die regelmäßig auf Veränderungen prüfen lassen, bzw, die Änderungen dann einfach übernommen. Dabei erstelle ich auch jeweils eine Liste der installierten Pakete im System.
Außerdem habe ich gerne einen Klon des Systems auf einem USB-Stick, denn ich im Notfall dann als Live-System benutzen kann. Der wird aber nicht regelmäßig upgedatet.

Nun ist mein Hauptrechner ausgefallen und ich musste auf eine Notlösung ausweichen. Da mache ich derzeit alles nur manuell, zwar auch mit rsync, aber eben nicht automatisiert. Hierbei mache ich das Backup davon abhängig, wie viel ich am Tag gearbeitet habe. Wenn ich zwanzig Seiten gescannt habe, ist das was anderes, als wenn ich nur etwas im Internet bestellt habe.

Einen Mangel, den ich bei der rsync-Methode bemerkt habe: es fehlen mir die Versionen. Wenn ich eine Datei bearbeitet habe und sichere, habe ich keinen Zugriff mehr auf ältere Versionen. Die kann ich zwar evtl in einem snap bekommen, aber das bleibt unübersichtlich und würde auch bedeuten, dass ich diese snaps ja auch mit sichern muss, was ich bisher explizit nicht gemacht habe.
 
Wenn du unabhängig von Snapshots Versionen beibehalten willst solltest du dir Dinge wie restic/borgbackup (sind sehr ähnlich), zpaq oder rsnapshot ansehen.
rsnapshot wäre vermutlich die geringste Umstellung da es auch auf rsync basiert. Auch hast du da alle Versionen direkt immer verfügbar (per Hardlinks). Allerdings erfordert alles eine gewisse Einarbeitung.
 
FreeNAS und externe USB-Festplatten. Meistens sichere ich aber eher Dokumente auf verschlüsselte USB-Sticks und deren Inhalt als verschlüsselte zip oder DMG auf dem NAS und USB-Platten.
 
Um hier auch mal 'ne völlig andere Position reinzubringen:
Backups sind was für Weicheier/Angsthasen.
Ich hab nicht mal persistenten Speicher. Eine RAM-Disk genügt mir völlig. Die hat auch den Vorteil, sau-schnell zu sein.
 
Meine Daten liegen zentral auf einem NAS - Teile davon werden via Syncthing auch auf verschiedene Endgeräte verteilt, "autoritativ" ist aber das NAS. Von dort werden sie im Stundentakt mittels borgmatic weggesichert. Einmal auf eine lokale externe Festplatte, einmal auf einen physischen Server in einem lokalen Rechenzentrum, einmal zu borgbase.com. Jede Sicherungskopie wird bis zu fünf Jahre aufbewahrt, was platztechnisch kein Problem ist, nachdem ich Mediendateien nicht sichere, und der zu sichernde Datenbestand somit die 300GB kaum übersteigt.

Einmal pro Woche läuft ein Skript, welches eine Wiederherstellung zufällig ausgewählter Dateien durchführt. Ich will wirklich nicht davon gebissen werden, dass die sorgfältig gemachten Sicherungen dann im Notfall nicht funktionieren.

Gelegentlich mache ich eine vollstände, manuelle Sicherung auf eine externe Festplatte, die ich bei Freunden deponiere. Das ist aber kein Backup, auf das ich mich verlassen würde.
 
Zurück
Oben