Nach einem Upgrade von 12.1 nach 13.1 fehlt die libncurses.so.8 und ich kann mich nicht mehr einloggen.

@ath0,
dank Dir nochmal, aber den Tip habe ich tatsächlich überlesen.
Ich habe auch ein
Code:
svn update /usr/src
gemacht danach dann
auch die beiden Befehle
Code:
make delete-old und make delete-old-libs
eingegeben.
Folgende Meldung taucht auf, siehe Foto,Anhang anzeigen 4506
Kann man das irgendwie beheben?
Bis dann Christian
svn update ist nicht der richtige weg, falls du die quellen vorher aus dem Branche RELENG-12.x geholt hattest. ich lösche /usr/src immer und checke neu aus, svn ist nich so meins. Also wäre mein tipp, einmal /usr/src komplett löschen und den passenden branche auschecken.

ps.: ich bin froh das die Quellen mittlerweile primär git sind und man (bei heiler installation) damit arbeiten kann, svn geht wenn es sein muss, aber finde ich leicht anstrengend ^^.
 
svn update ist nicht der richtige weg, falls du die quellen vorher aus dem Branche RELENG-12.x geholt hattest. ich lösche /usr/src immer und checke neu aus, svn ist nich so meins. Also wäre mein tipp, einmal /usr/src komplett löschen und den passenden branche auschecken.
Für FreeBSD 13.1 heißt das konkret:
git clone --branch releng/13.1 --depth 1 https://git.freebsd.org/src.git /usr/src
Wenn Du das dann später updaten willst:
git pull --ff-only

siehe dazu:
 
Hallo Forum, hallo an alle,

da bin ich wieder. Danke an alle die hier geschrieben haben.
Ich habe ein Teil der Befehle ausprobiert, vor allen dingen die pkg query Befehle.
Sehe ich das richtig das mit dem Befehl
pkg query -e "%a==0" "%o" > in-Datei
eine Dateiliste erstellt wird die man dazu benutzen kann nach einer Neuinstallation mit pkg einzulesen
und so sein System schnell wieder herzustellen?
pkg install <pkglist

Ich würde gern ein paar Tips und Tricks kennen lernen um sein System zu backupen.
Aber ohne eure Hilfe wird das wahrscheinlich Jahre dauern.
Wie habt Ihr euch das alles beigebracht?
Ich weiss jedenfalls nicht wo ich anfangen soll.
Anstrengend und schwer ist das sich die ganzen Infos zusammen zusammeln.
Wenn Ihr zu mir und meinem Vorhaben noch Fragen habt dann her damit.
Mein Vorhaben ist: Wie erstellt man sich vernünftige Backups?

Christian
 
Ich würde gern ein paar Tips und Tricks kennen lernen um sein System zu backupen.
Ganz allgemein, je nach Szenario überlegst du dir, wieviel du abdecken willst:
1. Bevorrate immer zwei Backups, besser drei.
2. Kaltbackups! (z.B. abgestöpselte Platte im Schrank)
3. Ein Backup außerhalb lagern (Wasser, Brand, Diebstahl)
4. Teste die Wiederherstellung / desaster recovery
5. Ggf. Ersatzhardware bevorraten zum Backup testen oder bei Defekt

Wie habt Ihr euch das alles beigebracht?
Sowas geht nicht über Nacht, stetig am Ball bleiben. Wenn man kein Interesse an IT hat und sich quälen muss, bringts nix.

Anstrengend und schwer ist das sich die ganzen Infos zusammen zusammeln.
Ja, aber dann bleibts auch hängen. Mach dir Notizen/Doku, damit du später immer wieder drauf zugreifen kannst.

Mein Vorhaben ist: Wie erstellt man sich vernünftige Backups?
Das kommt darauf an. Am einfachsten/sichersten ist es immer Stand X von einer Platte auf eine andere zu klonen und zwar, wenn das System darauf gerade nicht läuft. Windowsianer werden eher Ghost oder True Image kennen. Also Klonsoftware booten, Quellplatte auf Zielplatte, Zielplatte an sicheren Ort legen. Die Prozedur bestenfalls täglich machen, damit du immer ein aktuelles Backup hast.
Willst du den Stand absichern oder reicht es, wenn es nur deine persönlichen files sind? Nicht jede Software frisst jedes Dateisystem. Welches Dateisystem benutzt du? ZFS z.B. hat send/recv direkt dabei, aber es gibt auch noch andere Bordmittel.
Wichtig wäre noch zu wissen der Unterschied von snapshot, Vollbackup, inkrementell und differentiell.
Die Frage lässt sich so präzise beantworten wie "Welches ist ein vernünftiges Auto?". :D
Ausgefeiltere Backups mit Automatik auf ein Netzstorage etc. gibts auch, aber das ist dann auch eine Geldfrage und setzt mehr Kenntnisse voraus.
 
eine Dateiliste erstellt wird die man dazu benutzen kann nach einer Neuinstallation mit pkg einzulesen
und so sein System schnell wieder herzustellen?
Sozusagen.
Wenn Du Programme auf einem Free-BSD-System via Packagemanager installierst, dann machst Du das ja in dem Du pkg install pkgname eintippst.
Die naheliegende Lösung, um die selben Programme auf einem frischen System wieder zu installieren ist sich eine Liste der installierten Pakete geben zu lassen und in eine Datei zu speichern.

Das %a = 0 sorgt dafür, das nur Pakete aufgelistet werden die manuell installiert wurden. Damit automatische mitinstallierte abhängige Pakete nicht mit in der Liste landen.
Landen die mit in der Liste und man benutzt die um die pkg-install zu geben, dann haben die nicht mehr den Status "automatisch installiert"

Das die automatisch mit installiert wurden ist ein hinterlegter Status was ganz nützlich ist. Denn wenn man Pakete wieder entfernt kann man so auch alle etwaigen Pakete mitentfernen, die gar nicht mehr benötigt werden weils keine Abhängigkeiten mehr gibt.

Das %o bzw. %n sorgt dafür, das nur der Paketname ausgeben wird und nicht noch andere Informationen die wir für die Liste gar nicht brauchen.

Mit pkg install $(cat mypackagelist.txt) kann ich dann die Pakete sozusagen in einem Rutsch wieder installieren.

Wie habt Ihr euch das alles beigebracht?
Naja. Das ist ja jetzt nix Kompliziertes. Das lernt man so nebenbei. :-)
Generell gibts ja durchaus auch Online einiges an Material zu FreeBSD. So in klassischer Buchform finde ich sowas wie Absolute FreeBSD von Michael W. Lucas ganz gut. Das ist so ein rundumschlag zu allem was es zu FreeBSD zu wissen gibt.

Mein Vorhaben ist: Wie erstellt man sich vernünftige Backups?
Hast Du dann schon ein grundlegendes Backup-Konzept im Kopf und Dir fehlt nur die Info, wie man das in FreeBSD umsetzt oder was willst du konkret wissen?
 
Hast Du dann schon ein grundlegendes Backup-Konzept im Kopf und Dir fehlt nur die Info, wie man das in FreeBSD umsetzt oder was willst du konkret wissen?
Also folgendes ich habe hier ein Synology NAS 1621+ und auf dem würde ich gerne die Backups speichern.
Ich würde auch die Backups händisch anlegen(also kein cron Script).
Es gibt ja Programme wie dd und rsync oder scp mit denen man die Backups aufs NAS schiebt (Dabei brauche ich mal Hilfe).
Vielleicht gibt es noch andere Software.
Wichtig wäre noch zu wissen der Unterschied von snapshot, Vollbackup, inkrementell und differentiell.
Snapshot ist eigentlich kein richtiges Backup (laut Google).? Vollbackup sagt der Name ja schon, ein Vollbackup der Festplatte (eigentlich ein Speicherplatzfresser). Differentielles und Inkrementelles Backup unterscheiden sich wodurch, sie benötigen zum Anfang ein Vollbackup und dann werden nur Daten gesichert die seit des letzten Backups geändert wurden?
Hab ich da etwas übersehen?
 
ein Vollbackup der Festplatte (eigentlich ein Speicherplatzfresser)
Ein Vollbackup ist am sichersten und aus einem Vollbackup kann man komplett wiederherstellen. Nämlich genau dann wenn man das Vollbackup braucht, aber keines (mehr) hat, wäre es egal wieviel Platz das verbraucht hätte. Ist immer so, also hier nicht mit Platz oder Geld knausern. ;)

Um dem Platzverbrauch Herr zu werden, hat man inkrementelle Backups erfunden, da das immer nur die Änderung zum vorigen Backup speichert. Initial, also das erste Backup wird trotzdem immer ein Vollbackup.
Nehmen wir eine Arbeitswoche Mo-Fr, jeden Abend wird ein Backup gemacht. Montag (Datei Nr1) wird begonnen, das gibt ein Vollbackup. Dienstag (Nr2) ist klein(er), da nur die Änderung zu Montag geschrieben werden muss. Mittwoch (Nr3) bis Freitag (Nr5) dementsprechend. Am Samstag krachts dann und du musst wiederherstellen, dazu brauchst du alle 5 Dateien. Mit nur einer davon gehts nicht.
Das differentielle Backup unterscheidet sich darin, dass du nur die erste und die letzte Datei zum Wiederherstellen brauchst. Die Dateien 2,3,4 könnten gelöscht werden, sollte man aber nicht achtlos machen, du kannst dann entweder nur Montag oder Freitag herstellen. Das nur grob, Ausnahmen gibts natürlich.

Ein snapshot ist technisch auch ein inkrementelles Backup (aber kein geeignetes zur langfristigen Sicherung!), welcher sich oft live erstellen und wiederherstellen lässt. Ideal zum Software testen, z.B. wenn man schon ahnt, dass die gleich zu installierende Software oder Treiber das System schrotten könnte. Also vorher snapshot setzen, Software gefahrlos testen. Wenn es schiefgeht, setzt man den snapshot zurück und hat ruckzuck den Stand von vorher. Wenig Aufwand, wenig Speicherplatzverbrauch.
 
Es gibt ja Programme wie dd und rsync oder scp mit denen man die Backups aufs NAS schiebt
Naja. Nicht ganz. dd macht eher so ne Kopie eines Datenträgers. Was dabei raus kommt würde man als Image oder von mir aus auch als Vollbackup bezeichnen.
rsync macht ne One-Way-Sychronisation. Das kann man als Backup-Mittel einsetzen aber mit allein einfach nur "rsyncen" ist eher mittelmäßig.
scp kopiert im Prinzip nur Dateien per SSH. Auch das kann man mit einsetzen. Aber auch hier wieder: Allein davon hast Du noch kein anständiges Backup.

Ehrlich gesagt weiß ich nicht, wo ich hier so richtig ansetzen soll weil vieles unklar ist. Vielleicht solltest Du erst mal erklären, wie Du Dir das mit den Backups vorstellst und was alles im Backup überhaupt enthalten sein soll und dann reden wir über die konkrete Umsetzung.
 
Wie habt Ihr euch das alles beigebracht?
the hard way...
wobei ich nicht behaupten will, tatsächlich Wissen erworben zu haben. Ich stochere da auch nach Jahren oft hilflos herum. Das gilt vor allen Dingen, wenn ich lange mal nichts mehr mit der Materie zu tun hatte und dann neu einsteigen muss.

Snapshots sind kein Backup!
Aber man kann davon ausgezeichnet Backups machen und zwar aus dem laufenden System auf ein anderes Medium.
Weil ein Snapshot ein eingefrorener Zustand ist, geht man nicht das Risiko ein, Dateien fehlerhaft zu übertragen, weil sie gerade in Bearbeitung sind und teilweise im RAM liegen und womöglich noch nicht zurückgeschrieben wurden.

Was man wann wie und wohin backuped, kann nicht so wirklich generell beantwortet werden.
Ich frage mich halt, was brauche ich dringend?
Damit meine ich, was ich unbedingt als Daten behalten möchte, auch nach einem Erdbeben, Stromausfall, Überschwemmung Hausbrand.
Das ist mein wichtiger Datenbestand und der sollte entsprechend auch mehrfach vorhanden sein und auch an unterschiedlichen Plätzen lagern. Der muss dann natürlich regelmäßig geprüft/synchronisiert werden. Am einfachsten hat man diesen Datenbestand dann natürlich in einem eigenen Verzeichnis gesammelt.
Ich mache es mir einfacher und sichere regelmäßig mein komplettes $HOME. Dabei sind dann auch unwichtige Daten und deshalb mache ich ein paar Einschränkungen hinsichtlich der Dateigröße und so Sachen, wie dem Browser-Cache. Aber grundsätzlich einfach $HOME.

Das System selbst sichere ich nicht.
Wozu?
Es ist ja schnell wieder aufgespielt, also neu installiert und außerdem läuft es auf mehreren Platten in einem ZFS-Mirror, sollte also nicht so schnell kaputt gehen. Wollte ich das sichern, wäre aber auch hier ein ZFS-Snapshot einfach zu einem anderen Medium zu senden und so der aktuelle Zustand zu sichern.
Was ich indessen aber sichere, ist die Liste der installierten Pakete (wie oben beschrieben). Die muss man zwar nicht immer genau so wieder haben, manchmal probiert man ja nur ein Paket mal aus, aber ich kopiere sie mir jede Nacht in mein Backup hinein.
Aus meiner Mitschrift der durchgeführten Konfigurationen für ein System, habe ich mir einfach einen entsprechenden Dateibaum erstellt und rsynce den dann ebenfalls. Er ist danach dann eh Teil des Backups. Das ist keine echte Automatik. Wenn ich etwas neu einspiele und die Konfiguration nicht zuvor manuell sichere, wird die nicht mitgenommen. Diese Sicherung der Konfigurationen nutze ich auch nicht zum zurück spielen. Das würde zwar gehen, aber sie sind mir eher eine Gedächtnisstütze. Die eigentliche Konfiguration würde ich dann von Hand machen.

Jede Nacht lasse ich automatisch zwei Backups laufen. Und zwar generiere ich mir erst meinen snapshot und nehme dann daraus mit rsync die Daten, die ich davon brauche. rsync nun nicht, weil das so gut und geil ist, sondern weil ich es schon hatte, bevor es zfs gab und ich irgendwie nie die Kurve gekriegt habe, meine Ziele für den ZFS-Empfang um zu stellen.
Das erste Backup geht nach intern auf einen eigenen ZFS-Mirror. Das hat den Vorteil dass große Datenmengen sehr schnell synchronisiert werden können. Viel schneller, als über Netz. Und es hat den weiteren Vorteil, dass sie sofort auf meinem PC verfügbar sind, wo ich sie auch allermeist brauche und haben will. Nur manchmal hat man Katastrophen-Szenario, meist einfache Störfälle. Sofort danach sichere ich aber über Netzwerk einen Auszug dieser Daten ebenfalls. Dies mache ich im Augenblick nur zu meinem NAS im gleichen Raum, also auch nicht so wirklich Katastrophenfest. Mit meinem Provider bin ich derzeit aber ein wenig unzufrieden, was meinem Web-Space angeht und sehe mich gerade nach neuen Anbietern um (Tips willkommen).
Auf wenigstens drei externen USB-Platten sichere ich dann die Daten wieder (etwas unregelmäßig aber im Prinzip) alle paar Wochen und rotiere diese dann durch die unterschiedlichen Aufbewahrungsorte.
Weil Sticks inzwischen auch groß sind, habe ich mehrere Sticks im Einsatz, die ein Knoppix drauf haben und von dem aus sichere ich die gleichen Daten auch regelmäßig auf die Sticks, also nicht alle, aber eben die wichtigen Daten. Das sind bei mir etwa 30 oder 35 GB und hier nutze ich dann ebenfalls rsync. Das hat nichts mit Backup in dem Sinne zu tun, denn die Sticks liegen meist auf meinem Schreibtisch, sind aber manchmal auch in meiner Hosentasche. Das hat eher mit Bequemlichkeit zu tun. Denn ich kann dann quasi von fast überall auch auf meine wichtigen Daten zugreifen, ohne Internet. Faktisch sind das natürlich auch Backups, aber sie sind nicht Bestandteil meines Szenarios, ich kann mich nicht auf den Datenstand auf den Sticks verlassen.

Früher hatte ich viel Aufwand betrieben, auch unwichtige Daten, wie Musik und Filme zu sichern. Ich habe die auch heute noch, es sieht sie aber keiner mehr an. Es gibt ja ständig so viel Neues und das Internet ist voll davon, da braucht man sich kaum die Mühe zu machen.
Trotzdem habe ich einige extra große externen Platten, auf denen ich auch diese Sammlungen gelegentlich update. Weil man die einfach auch mal mitnehmen kann und sich damit bespaßen, wenn man mal irgendwohin fährt (DE?), wo es kein (schnelles) Internet gibt.
Dazu ist es auch eine Variante, sich (s)ein FreeBSD auf ein externes Medium zu klonen und dieses mit zu führen. Ich benutze zwar lieber das Knoppix für Unter Wegs, aber früher hatte ich auch einen FreeBSD Stick dabei und nomad-bsd bietet sich da ja inzwischen auch an. Dann braucht man sich nicht an neue Systeme zu gewöhnen, etwa, wenn ich den Firmen-Laptop mit ins Hotel nehme und ihn privat nutze.

Das hängt aber auch jeweils von der individuellen Situation ab. So habe ich hier zu Hause nicht nur meine Daten-Backups, sondern zwei Not-Rechner, mit denen ich sofort weiter arbeiten könnte, wenn mein Hauptrechner ausfällt und ich keine Ersatzteile habe. An einem anderen Ort stehen noch zwei weitere Rechner. Die sind zwar jeweils schlapp, aber ich könnte damit arbeiten und wichtige Termine nicht verpassen (wie etwa die Meldung zur Grundsteuer :( )
Hätte ich nur einen PC mit nur einer Festplatte (whatever), wäre es mir schon wichtig, das komplette System (bootable) auf einem externen Medium bereit zu halten, damit ich im Notfall eben auch auf fremder HW direkt damit arbeiten könnte. Also, falls ich da wirklich FreeBSD abhängig bin.
Bei mir würde das dann derzeit eher Knoppix erledigen, wo ich auch alle üblichen Anwendungen finden kann und das eine ausgezeichnete HW-Erkennung und -Unterstützung mitbringt.

_________
Wir leben offenbar in unsicheren Zeiten. Ich selbst merke davon nichts, habe aber auch kein TV und Radio oder andere News-Medien. Was ich über Gespräche mit Bekannten erfahre, ängstigt mich schon genug. Wir sind in DE durchaus verwöhnt, was die Stromversorgung angeht. Hier bei mir (en France) fällt dauernd mal der Strom aus. Meist nur kurze Zeit, aber schon mal einige Tage.
Das schnellste Internet nutzt nix ohne Strom!
Auch dem besten Backup mit wichtigen Daten geht es ebenso.
Was ich damit ansprechen möchte klang vielleicht oben schon mal an: HW unabhängige Sicherung der wichtigen Daten!
Daten im PC sind geil und schnell gefunden. Aber was is, wann nix is?
Elektronisch sollten die Daten zumindest auch Android-geeignet sein und möglichst ohne zusätzliche SW auf dem Smartphone dargestellt werden können.
Kopien in Papierform können sehr nützlich sein, ebenfalls an unterschiedlichen Orten verwahrt und ebenfalls regelmäßig aktualisiert.

Ich habe zumindest so ein Gefühl, dass wir uns auch ernsthaft Gedanken machen sollten, wenn das Katastrophen-Szenario nicht mehr nur ein regionales Ereignis ist, sondern etwa den kompletten Zusammenbruch einer Infrastruktur einschließt. Mir ist es in der Vergangenheit sehr leicht gefallen mit der Behauptung: "Daten gehören ins Netz", weil das Netz ja einfach immer da war.
Strom kommt bekanntlich aus der Steckdose. Punkt.
Aber hinter dem Punkt?

Nicht jeder kann sich auf alle möglichen Ereignisse vorbereiten und das macht auch sicher keinen Sinn. Aber einen Denkanstoß wollte ich doch mal absetzen.
 
Vielleicht solltest Du erst mal erklären, wie Du Dir das mit den Backups vorstellst und was alles im Backup überhaupt enthalten sein soll und dann reden wir über die konkrete Umsetzung
Also ich möchte FreeBSD neu installieren, aber vorher noch ein paar Dateien und Verzeichnisse sichern die ich gebrauchen könnte. Zum Beispiel eine Liste mit den Paketen/Software die zur Zeit auf einem FreeBSD-12 installiert sind.
Verzeichnisse die ich auf jeden Fall sichern möchte sind folgende
Code:
/boot
/etc
/usr/home
/usr/dt
/usr/local

Wenn Ihr noch eine andere Idee habt was gesichert werden muss, dann her damit.
Ehrlich gesagt weiß ich nicht, wo ich hier so richtig ansetzen soll weil vieles unklar ist.
Ganz ehrlich gesagt geht es mir genauso.
 
Aber man kann davon ausgezeichnet Backups machen und zwar aus dem laufenden System auf ein anderes Medium.
Weil ein Snapshot ein eingefrorener Zustand ist, geht man nicht das Risiko ein, Dateien fehlerhaft zu übertragen, weil sie gerade in Bearbeitung sind und teilweise im RAM liegen und womöglich noch nicht zurückgeschrieben wurden.
Das stimmt nur zum Teil. Weil das Daten noch nicht zurückgeschrieben worden sind kann Dir auch bei eine, Snapshot passieren.
Der Vorteil beim Snapshot liegt darin, das das kritische Zeitfenster sehr viel kleiner ist.

Außerdem wird der Rechner viel weniger blockiert. Wenn ich klassisch Dateien wegkopiere (wie auch immer) dann hab ich halt immer das Problem, das ich in der Zeit den Rechner nicht vollumfänglich benutzen kann weil ich ja nicht weiß, wann meine Datei die ich gerade bearbeite auch wirklich kopiert wird. Wenn ich ein Snapshot mache dann ist dieser Prozess sozusagen sofort beendet. Wie lange dann das eigentliche kopieren dauert ist eher zweitrangig und ich muss mir keinen Kopf machen wenn ich in der Zeit am Rechner weiter arbeite Dateien bearbeite usw.

Jedenfalls um jegliches Risiko zu vermeiden sollte man durch beenden aller Programme sicher stellen das keine Nutzdateien mehr in irgendeinem Zugriff sein können, dann ein Snapshot machen und danach kann man eigentlich weiter arbeiten und parallel dazu das eigentliche Backup machen.

Also ich möchte FreeBSD neu installieren, aber vorher noch ein paar Dateien und Verzeichnisse sichern die ich gebrauchen könnte.
Das ist ja schon mal ein Anfang.

Wenn Ihr noch eine andere Idee habt was gesichert werden muss, dann her damit.
Naja. Wenn Du eh neu installieren willst ist das komplette /boot eher sinnlos. Das einzige was da interessant sein könnte wäre die
loader.conf falls man da Änderungen dran vorgenommen hat.
Das komplette /usr/local ist auch eher unangebracht wenn Du eh aus der Paketliste neu installieren willst. Anders siehts da mit den Konfigurationen aus /usr/local/etc aus.
/usr/dt sagt mir jetzt nix.
Was hier und da noch interessant sein könnte wären die var-Verzeichnisse. Also /var bzw. /usr/local/var
Das hängt aber so ein bisschen davon ab, was man am laufen hat.

Ganz ehrlich gesagt geht es mir genauso.
Klingt ein bisschen danach als ob Du Dir nicht sicher bist wie man ein Backup generell und konzeptionell (also Dinge die unabhängig davon sind was da nun für ein System läuft) aufzieht.
Mir ist immer noch nicht ganz klar von welchem Wissensstand ich hier ausgehen muss oder welche sonstigen Fragen noch bei Dir bestehen.
Ich will jetzt auch nicht irgendwas schreiben wo Du denkst "das weiß ich alles schon" oder auch "Weiß nicht wovon Du redest". Um das zu vermeiden wäre es halt gut zu wissen, wie so generell Stand der Dinge ist.
 
/usr/dt sagt mir jetzt nix.
/usr/dt ist das Installations-Verzeichnis von CDE.

Mir ist immer noch nicht ganz klar von welchem Wissensstand ich hier ausgehen muss oder welche sonstigen Fragen noch bei Dir bestehen.
Mein Wissensstand ist bei Linux/BSD ich würde mal sagen Sattelfest.
Ich weiss vieles aber ich weiss nicht alles.
Google ist die erste Anlaufstelle.
Fragen im Forum ist meistens etwas entspannter.
 
Die Synology kann laut Datenblatt iscsi, das würde ich aus dem Bauch raus nutzen, weil es schnell und flexibel ist und möglichst wenig Zutun der Synology braucht.
Dann auf dem Rechner auf diesem iscsi-dev einen zfs-pool machen und darauf zfs snapshots schieben, damit wäre auch die Konsistenz gegeben. Weiter oben sagte ich, dass snapshots nicht als langfristiges Backup taugen (wenn man einfach nur den snapshot auf der Quelle auf ewig aufhebt). Bei zfs musst du aber mit einem snapshot einen festen Stand definieren, damit du ihn definiert 'greifen' und kopieren kannst. Ein live laufendes Dateisystem kann man sonst nicht backuppen, es würde niemals fertig werden.
 
Du nutzt einen alten Loader mit neuen Scripten unter /boot. Du musst den Bootloader updaten. Hat allerdings natürlich das Risiko den Bootprozess zu zerschießen...
Schematisch gesagt musst du zuerst herausfinden, ob du per BIOS oder UEFI bootest. Anschließend kann der Loader aktualisiert werden:

  • Bei BIOS-Boot per gpart bootcode. Auf jeden Fall darauf achten, die richtige Partition zu erwischen. Die falsche Partition zu überschreiben ist tödlich.
  • Bei UEFI-Boot den neuen Loader auf die EFI-Partition kopieren. Je nach Firmware muss er anschließend per efibootmgr neu registriert werden.

@Kamikazes bsdadminscripts2 - https://www.freshports.org/ports-mgmt/bsdadminscripts2/ - beinhalten loaderupdate, was den Vorgang automatisiert.
 
@Yamagi,
weiter oben habe ich beschrieben das ich eine Neuinstallation machen will.
@Kamikazes bsdadminscripts2 - https://www.freshports.org/ports-mgmt/bsdadminscripts2/ - beinhalten loaderupdate, was den Vorgang automatisiert.
Dann brauche ich diesen Port nicht mehr. Aber Danke.

Bei BIOS-Boot per gpart bootcode. Auf jeden Fall darauf achten, die richtige Partition zu erwischen. Die falsche Partition zu überschreiben ist tödlich.
  • Bei UEFI-Boot den neuen Loader auf die EFI-Partition kopieren. Je nach Firmware muss er anschließend per efibootmgr neu registriert werden.
Wie kann ich heraus finden was ich benutze? Mein Rechner ist ein MacMini 2009 8GB Ram und einen 512GB SSD.
Ich weiss das man mit einer Tastenkombi ich sag jetzt mal ins Bios kommt. Allerdings weiss ich die nicht mehr.
Google lässt Grüßen.
 
Dieser Thread ist auch schon gewaltig ins off-topic geglitten.
Normalerweise bespricht man in einem Thread ein Problem, so haben andere Nutzer es bei einer Suche einfacher.

Rob
 
Ganz ehrlich gesagt geht es mir genauso.
Ok. Ich fang' mal anders an und greif dabei auch so ein bissl das auf, was ich im Verlaufe des Threads mitbekommen habe.

Also erst mal sollte man sich vergegenwärtigen was man durch ein Backup eigentlich absichern will. Also klar. Man hat auf seinen Computer seine Dateien und wenn die mal wegen irgendwas weg kommen dann will man ne Sicherheitskopie davon haben.
Das "weg kommen" fasst aber eigentlich mehrere Dinge zusammen die man auch so differenziert betrachten sollte. Spontan denkt man an sowas wie Festplatte geht kaputt. Eine triviale Möglichkeit sich davor zu schützen wäre die Dateien simpel zu kopieren. Auf einen Stick, ext.Festplatte, NAS, whatever.

Nun gibts aber noch andere Schadensfälle. Zum Beispiel das Dateien kaputt gehen (durch Programmfehler oder Ransomware). Solche Sachen merkt man u.U. nicht gleich. Wenn Du als Back also stumpf nur Dateien kopierst dann überschreibst Du möglicherweise sogar unwissentlich eine intakte Kopie mit einer Beschädigten. Was man also haben will ist eine Art versioniertes Backup. Änderungen an Dateien sollen vorherige Versionen der Datei beim Backup nicht kaputt machen.
Dann gibts aber auch so Sachen wie Diebstahl, Band usw. Wenn also salopp gesagt Deine Backup-Festplatte neben Deinem Computer liegt dann ist bei solchen Ereignissen beides futsch. Man sollte sich also überlegen mindestens eine Kopie seines Backups außer Haus zu haben (kann ja auch ein Cloud-Speicher sein; sofern das Backup verschlüsselt ist, ist das hinsichtlich Privatsphäre kein größeres Problem).

Dann die Frage, wie oft soll ein Backup gemacht werden. Wöchentlich, täglich, stündlich? Und um welchem Umfang von Daten reden wir hier überhaupt?

Das sind so grundsätzliche Gedanken die man sich machen muss und völlig unabhängig davon, welches System wir haben oder welche Backup-Programme wir nutzen.

Man kann die Sache natürlich auch anders herum angehen. Man kann auch erst mal anfangen und sich sagen: Erst mal ein irgendein Backup zu haben ist besser als gar nichts zu haben und das weiter perfektionieren kann man dann Schritt für Schritt (was gefährlich ist, weil man dann schnell geneigt ist das aufzuschieben weil man hat ja häufig wichtigere Dinge zu tun so das man nie ein ordentliches Backup hat; aber das muss jeder selbst wissen/entscheiden).

Im Grunde hast Du es ja beschrieben. Du willst nicht das komplette System sichern, sondern eigentlich nur Deine Dateien (/home) und von mir aus auch noch die Konfiguration aus /etc respektive /usr/local/etc
Man kann später ja noch überlegen was man noch braucht oder daraus zum Beispiel auch nicht braucht (sowas wie Browser-Cache, Tempfiles usw. lohnt sich ja i.d.R. nicht zu sichern).

Und als Zielbackup-Medium kannst Du ja dann auch erst mal Dein NAS nehmen. Ich nehme an, das hast Du eh gemountet und dann kannst Du da natürlich auch Dein Backup drauf packen und angesprochen wird es ja letztlich wie jedes andere lokale Verzeichnis auch (optiomal ist das nicht; nehmen wir mal an eine Schadsoftware, Programmfehler, whatever tritt auf dann ist natürlich nicht nur Deine Dateien gefährdet, sondern auch Dein Backup davon; aber für den ersten Schritt geht das zunächst in Ordnung).

Jetzt nur noch die Frage, wie erstellen wir das Backup. Simples Datei kopieren ist ja aus oben beschriebenen Gründen eher suboptimal. Man kann eigentlich schöne Zaubereien mit ZFS und seine Snapshots und send/receive machen. Aber das ist halt recht unspezifisch was die Dateien angeht (Du kannst es halt nur auf ganzen Datasets machen; außerdem brauchst Du ein ZFS). Ich würde vorschlagen sowas wie restic zu nehmen. Das gibts für die üblichen Major-Plattformen, macht sowas wie Versionierung, kann Verschlüsselung (was insbesondere bei extern aufbewahrten Backups a-la Cloud etc. ein Kriterium ist). Außerdem ist es schnell und speichereffizient und ist - obgleich es ein Kommandozeilentool ist - nicht so schwer zu bedienen.

Das Manual ist brauchbar und man kann daraus alles nötige entnehmen. Von der Bedienung hier ist es im Grunde ein wenig wie git. Anfangs initialisiert man ein Repository was man in ein beliebiges Verzeichnis (in Deinem Fall aufs NAS) legen kann (Bsp: restic init --repo /path/to/nas-mountpoint/restic-backup). Ab dann kannst Du halt immer Dein Backup dort hinein werfen (mit Aufrufen a-la restic -repo /path/to/nas-mountpoint/restic-backup backup /home /etc /usr/local/etc). Das Manual beschreibt auch die verfügbaren Optionen um z.B. Verzeichnisse/Dateien auszuschließen usw.

Das nur mal so als grober Einstieg was man machen, wie man beginnen könnte und worüber man nachdenken sollte.
 
Stimmt schon, ist thematisch abgeglitten. Ich zwicke den Thread jetzt aber nicht auseinander, der Ablauf passte ja dazu.

Ich würde vorschlagen:
Wenn zum Titel thematisch noch was ist, hier rein (daher lasse ich auch offen)
Wenn du jetzt mit den Infos zu Backup neue Fragen hast -> neuer Thread ;)

(Es schadet auch nicht, mal die vorgeschlagenen Ansätze durchzuspielen. Das gibt Routine und du siehst ja dann, mit welcher Variante du dich gut arrangieren kannst/willst. Neue (gezielte!) Fragen ergeben sich dann wahrscheinlich sowieso.)
 
In welchem Forum denn?
Naja. Die Beschriftung ist doch recht eindeutig. Wenn es eine Frage zur FreeBSD-Installation ist, dann bietet sich
FreeBSD - Installation
an. Wenns ein FreeBSD-Netzwerkthema ist dann FreeBSD - Netzwerk wenns so allgemeine Themen sind (wie mach ich ein Backup von meinem FreeBSD-Rechner u.ä.) dann halt FreeBSD - Allgemein

In der Regel wird man auch nicht zum Tode verurteilt, wenn eine Frage mal nicht 100% thematisch in ein Forum passt. Der Hinweis ging ja auch eher in die Richtung für jede Fragestellung einen eigenen Thread zu eröffnen. Damit man halt nicht Threads hat, wo unnötig viele Themen vermischt werden.
 
Genau, FreeBSD Allgemein bietet sich beim Backup an und da es auch auf die Synology soll, passt auch FreeBSD Netzwerk.
Wichtiger ist ein aussagekräftiger Threadtitel, "Backup läuft nicht" ist schlecht, "Backup FreeBSD auf Synology läuft nicht, Fehlermeldung XYZ" ist gut.
Du machst das schon, ich habe vollstes Vertrauen. ;)
 
Zurück
Oben