Backup, UFS, ZFS

Hallo,

ich muss hier nochmal nachfragen.

ich trau mich nicht mit bsdconfig in der neuen USB-Festpallte einen FreeBSD typischen Bootblock zu schreiben. Meine Befürchtung ist die, dass das irgendwie Einfluss auf die aktuelle boot- Platten hat. Und welcher bootcode ist der richtige?

Ich frage nach, weil ich aus dem was ich, auch im Handbuch, gefunden habe nicht schlau werde.

Was ich will ist:
1. Bootcode
2. bsd label
3. freebsd-ufs Partiotion
4. kleine swap Partition

die Frage ist die, gibt es einschränkungen für 3.? was die Cylinder betrifft (Früher gab es die ja mal die Festplatte hat 500GByte)
dann würde ich nämlich 3. und 4. tauchen wenn es keine Probleme gibt.

Problematisch ist eigentlich nur der Bootcode und das bsd label, brauch man das überhaupt?


Grüße
 
Du willst kein "bsdlabel". Das ist veraltete, eklige Technik. Nimm stattdessen GPT. :) Das wäre dann, unter der Annahme das /dev/da0 die USB-Platte ist, grob so:
Code:
# Löscht ALLE Partitionen und Daten auf /da/d0
gpart destroy -F da0

# Erstelle eine leere GPT und 3 Partitionen
gpart create -s gpt da0
gpart add -t freebsd-boot -s 256 -l uboot da0
gpart add -t freebsd-swap -s 512M -l uswap da0
gpart add -t freebsd-ufs -l uroot da0

# Den Bootcode schreiben
gpart bootcode -b /boot/pmbr -p /boot/gptboot -i 1 da0

# Dateisystem anlegen
newfs -U /dev/gpt/uroot

Wie immer beim Rumgebastelt an Partitionen gilt, dass man sich dabei auch wunderbar Daten oder das ganze System schrotten kann. Also bitte aufpassen und ein wenig mitdenken. Ich übernehme keine Garantie dafür... :)
 
ich war gerade noch am Suchen, da kam die Antwort von Yamagi schon und ich will gerade nur die Links noch hinzufügen, die ich bisher gefunden hatte:
https://www.freebsd.org/doc/de_DE.ISO8859-1/books/handbook/disks-adding.html
https://www.freebsd.org/cgi/man.cgi?query=gpart&sektion=8&manpath=freebsd-release-ports

und dann noch darauf hinweisen, dass Yamagi in seinem Vorschlag Label setzt. Sind diese gesetzt, kann man sie auch nutzen und damit durch einen passenden Eintrag in der fstab gerade bei externen Geräten zuverlässiger die richtige Partition auswählen.
Ich gehe dabei davon aus, dass diese Label wie Dateisystemlabel (mit newfs -L) wirken. Letztere fand man allerdings dann zB in /dev/ufs/Label.
Die Verwendung von Labeln muss natürlich gar nicht sein, ich finde sie hilfreich und wie gesagt, gerade bei externen Medien von denen gebootet werden soll.
 
Ich gehe dabei davon aus, dass diese Label wie Dateisystemlabel (mit newfs -L) wirken. Letztere fand man allerdings dann zB in /dev/ufs/Label.
Jepp, tun sie. 'newfs -L' geht nach /dev/ufs/ und 'gpart add -l' nach /dev/gpt/. Gerade bei Wechseldatenträgern ist es sehr sinnvoll Label zu nutzten, da sich der Device-Name selbst ja auch mal ändern kann.
 
Danke dir, ich hab alles genau so gemacht wie du es hier beschrieben hast und ich hab nicht vergessen das Device da0 anzupassen :)
Den anderen danke ich ebenfalls für ihre Posts :)

So, nun steht einem Backup des Systems nichts mehr im Weg.

update:
ich kann mich einfach nicht entscheiden ob ich nun dump ... | restore ..... oder rsync verwenden soll.

Also ich will nun wie im Thread bereits beschrieben meine / auf das neue /dev/gpt/uroot, das bei mir auf /mnt/usb gemoutet ist kopieren.

Das Problem ist nun das, dass ich den Befehle remote (ssh Verbindung) ausführe. Dauert das kopieren sehr lange muss ich den PC laufen lassen, was ich nicht will. Ich glaube mit nohub macht man das unabhängig von der shell?
Bei rsync sehe ich den Vorteil, dass ich das beliebig oft starten und abbrechen kann und beim wiederholen nicht wieder alles von vorne beginnt.

dump macht Block-Kopie rsync File-Kopie. Ich weis aber nicht was für ein Vorteil Block-Kopie bringt und welchen Nachteil File-Kopie.

Könnt ihr mir eine Entscheidungshilfe geben :)


Appropo Labels, kann ich Labels auch noch nachträglich zuweisen? Dann könnte ich alle Partitionen Labeln und die FSTAB anpssen, so dass wenn ich von der USB-Disk boote die FSTAB nicht mehr anfassen muss?
 
Zuletzt bearbeitet:
Zur Geschmacksfrage ob dump oder restore:
Du kannst rsync natürlich nutzen und auch später noch Dateien synchron damit halten. Es arbeitet aber anders, als dump. dump, wenn ich das noch richtig weiß, macht eine Art Snap und kopiert dann genau einen Status der Dateien. Wenn sich während rsync was ändert, kann die Information im Ziel schließlich asynchron landen und in einem ganz schlimmen Fall könnte dadurch das Ziel nicht booten oder gar unbrauchbar sein.
Du kannst nach dem Login eine screen Sitzung öffnen, und diese ablösen, oder nach nohup die Kommandos in den Hintergrund legen, in beiden Fällen läuft dein Backup weiter. Im zweiten Fall lasse ich die Ausgaben noch in ein File laufen (tcsh):
Code:
nohup dump ... | restore ... >& datei.txt &
Die Label kannst du nachträglich mit tunefs oder glabel bearbeiten, bin mir gerade nicht sicher, aber das geht imho nur im SingleUser.

Edit: Label Ergänzung & Typo
 
Zur Geschmacksfrage ob dump oder restore:

Du kannst nach dem Login eine screen Sitzung öffnen, und diese ablösen, oder nach nohup die Kommandos in den Hintergrund legen, in beiden Fällen läuft dein Backup weiter. Im zweiten Fall lasse ich die Ausgaben noch in ein File laufen (tcsh):
Code:
nohup dump ... | restore ... >& datei.txt &
Die Label kannst du nachträglich mit tunefs oder glabel bearbeiten, bin mir gerade nicht sicher, aber das geht imho nur im SingleUser.

Edit: Label Ergänzung & Typo

Danke, werde es demnächst ausprobieren
 
Ja, du kannst das UFS mit dump(8) sichern und mit restore(8) auf ZFS zurückspielen. Das geht sogar per Pipe, ungefähr so:
Code:
cd /pfad/zum/neuen/zfs/root
dump -0 -af - /dev/$ufs_root | restore -rf -

Dump ist nun fertig. Wie überprüfe ich nun den dump? Oder ist eine Überprüfung nicht nötig?

Die Festplatte muss ja irgendwie noch als aktive boot-platte markiert werden? Oder wie geht das?

Sollte ich wohl an meinem Laptop überprüfen ob sie bootet.

Update:
Platte bootet :)
Nun könnte ich noch zur Sicherheit einen Dump in eine Datei machen?
 
Hi,

:):) mein Server bootet von der USB-Harsdisk :):)

Damit stehen die Raid1 SSD Disks für eine Neuformatierung mit ZFS zur Verfügung.

Wie geht das nun ? Hab da was ZFS betrifft keine Erfahrung. Bitte um Anleitung für diesen besonderen Fall.

Oder gibt es bereits einen Thread ?

Update:
ich hab mir soeben die ZFS Installation im Handbuch durchgelesen. Leider keine Angaben zu Hardware Raid und ZFS Boot Disk.
Andere seiten im Internet stellen das ziemlich kompliziert vor, vielleicht sind die auch veraltet.

Ziel:
Booten von einem Hardware Raid1 wo root / mit ZFS Formatiert ist.

Früher war das ja so:
1. MBR/GPT
2. Root Partition
3. swap Pertition

wie ist das nun bei ZFS? Damit der Systemstart sauber läuft?

Bitte stepp by stepp Anleitung.



Grüße
 
Zuletzt bearbeitet:
Hi alle,

nach ein paar vergeblichen Versuchen ein Bootfähiges ZFS zu bauen gebe ich dieses Vorhaben nun auf.

Ich möchte mich aber bei allen bedanken die versucht haben mir zu helfen.

Mit besten Grüßen an die freundlichen Helfer

Thema geschlossen
 
du hast doch ein bootfähiges UFS auf deiner externen Platte erstellt, mit ZFS geht das analog, nur eben mit ZFS.
Grundsätzlich.
Du hast einen eingebauten HW-Raid und davon will auch bei meinem Rechner ZFS einfach nicht booten. Ich habe den Raid abgeschaltet, also, die HW ist natürlich noch da, aber ich nutze nicht das HW-RAID. Das macht auch gar keinen Sinn mit ZFS. ZFS kann das viel besser, als eine HW und ist letztlich auch sicherer.
Was ich sagen will: es kann sein, dass es einfach misslingt, ein ZFS von deiner HW zu booten, obwohl du alles richtig eingerichtet hast.
Ein einfacher Test wäre, wieder mal auf ein externes Medium zu testen, analog zu dem Versuch mit UFS. Gelingt dies, aber intern über HW-Raid nicht, dann wäre es vielleicht möglich, von einem USB-Gerät zu booten (so mache ich das im Augenblick).
 
Man will auch kein Hardware-RAID mit ZFS. Damit kombiniert man nur das Schlechte beider Welten.
 
Btw, was sind denn das für Schwierigkeiten mit ZFS auf einem Hardware RAID? Geht das generell nicht?

Wenn sich ZFS nicht manuell aufbauen lässt, was passiert beim Installer?
Code:
bsdinstall zfsboot
 
Funktionieren tut es schon. Aber man kombiniert halt eine hochkomplexe, viel zu oft fragwürdig implementierte RAID-Firmware mit einem Dateisystem, was darauf ausgelegt ist von ihm verwalteten Daten selbstständig über die zur Verfügung stehenden Medien zu verteilen. Ist der RAID-Controller kaputt, braucht man idealerweise ein baugleiches Modell, um das Array importieren zu können. Ein ZFS lässt sich auch dann importieren, wenn man die Platten an billige S-ATA Ports hängt. Man braucht auch keine BBU mehr, muss sich daher keine Gedanken über Datenverlust oder sogar zerstörte Arrays im Falle einer ausgefallenen oder zu früh leergelaufenen BBU machen. Und meiner Erfahrung nach ist ZFS gerade bei Dingen wie Rebuilds / Resilverings wesentlich schneller als z.B. eine Avago SAS3008 basierte Karte, eventuell durch mehr zur Verfügung stehende CPU-Power.

Vor allem ist da aber die Integration. Anstelle eines oft ekligen Tools für den RAID-Controller hat man wunderbar das "zpool"-Kommando mit all seinen Möglichkeiten. ZFS sagt im Fehlerfall genau, welche Platte betroffen ist. Bei Hardware-RAID darunter hat man es oft genug, dass ZFS Checksum-Errors ausgibt, die Controller-Firmware aber alles für in Ordnung hält. Mit zfsd kann man dann auch sehr feingranular auf Fehler reagieren, anders als die 3 Optionen, die man bei den gängen RAID-Controllern hat.

Unter dem Strich spricht eigentlich nichts dafür ein Hardware-RAID mit ZFS zu kombinieren. Zumindest ich sehe als entweder / oder.
 
du hast doch ein bootfähiges UFS auf deiner externen Platte erstellt, mit ZFS geht das analog, nur eben mit ZFS.
Grundsätzlich.
Du hast einen eingebauten HW-Raid und davon will auch bei meinem Rechner ZFS einfach nicht booten. Ich habe den Raid abgeschaltet, also, die HW ist natürlich noch da, aber ich nutze nicht das HW-RAID. Das macht auch gar keinen Sinn mit ZFS. ZFS kann das viel besser, als eine HW und ist letztlich auch sicherer.
Was ich sagen will: es kann sein, dass es einfach misslingt, ein ZFS von deiner HW zu booten, obwohl du alles richtig eingerichtet hast.
Ein einfacher Test wäre, wieder mal auf ein externes Medium zu testen, analog zu dem Versuch mit UFS. Gelingt dies, aber intern über HW-Raid nicht, dann wäre es vielleicht möglich, von einem USB-Gerät zu booten (so mache ich das im Augenblick).

Ja, über den HW -Raid bin ich gestolpert. Es gab kein Problem das ZFS auf graid zu installieren. Es hat auch gebootet, jedoch wollte es nach dem Botten nicht mehr arbeiten weil es graid mit ZFS anscheinend nicht funktioniert. Auf das HW-Raid1 will ich aber nicht verzichten, warum erklär ich gleich. Um nun Rais1 unter ZFS nutzen zu können hätte ich das HW-Raid abschalten müssen und meine wichtige Kopie des System aufgeben müssen. Dann habe ich dann verschiedene Anleitungen des ZFS angesehen und festgestellt, Das mir das nun dann doch zu kompliziert ist. Vergeblich war der versuch schon, weil er so wie ich mir vorstellte nicht funktionierte. leider.

Nun, warum ist ein HW-Raid1 durchaus sinnvoll, das will ich erklären. Ich hatte vor ein paar Jahren einen alten Laptop, auf den hatte ich FreeBSD installiert und die Ports die ich brauchte kompiliert. Leider hat das die SSD-HD nicht überlebt. Recherchen im Internet haben ergeben, dass SSD nicht so selten verrecken wie man denk. Eine herkömmlicher HD hätte das nichts ausgemacht. Auf meinem wichtigem PC, hatte ich auch eine SSD auf der das Betriebssystem Windows 7 Professional installiert ist und auch Daten auf die ich nicht wirklich verzichten möchte. Meine Erfahrungen mit Windows 98, das man alle 6 Monate neu installieren musste hatte ich echt keinen Lust mehr. Also habe ich meinem PC auch eine SSD-Raid1 spendiert, den ich später zu einem Raid5 ausgebaut hatte. Warum also einen Raid 1 oder 5. Es schütz einen vor Festplattenausfall. Auch bei einem Stromausfall kann es zu Fehler in den Disks kommen was dann nicht selten zu einer neu Installation führt. Festplatten defekt oder Blockfehler durch Stromausfall, da hab ich echt keine Lust mehr deswegen Windows neu zu installieren. Erst diese Jahr hatte ich einen Stromausfall und tatsächlich Blockfehler was wegen des Raid 5 keine weiteren Folgen hatte. Und wie wichtig mir das ist, zeigt die Tatsache dass ich trotz Raid5 ein doppeltes Backup auf 2 getrennten Datenträgern täglich erstelle. Pessimist oder paranoid? Vielleicht? Durch die Backups konnte ich manchmal versehentlich gelöschte Daten wieder holen.

Ein Backup schütz einen vor verloren Dateien. Ein Raid1,5 schütz einen vor Harwareausfall. Und darum macht Raid immer Sinn auch bei ZFS.

Dann kommt noch hinzu, dass ich auf meinem Server nicht viel Experimentieren kann was das System Betrifft. Ich kann mich schlicht mit ZFS nicht aus und die Gefahr, dass ich irgenwie das System abschieße, das will ich auch nicht.

Ich hoffe ihr verzeiht mir den Rückzieher.

Jetzt hab ich ein 500G Platte übrig, die extra dafür gekauft hatte :) Aber die hat ja eh nur als Doppelabsicherung gedient
 
Man will auch kein Hardware-RAID mit ZFS. Damit kombiniert man nur das Schlechte beider Welten.

Es gibt verschiedene HW-Raid, die auf dem Mainboard integriert Chips ermöglichen das Booten von beiden Platten und dann kommt es auf den Chip an ob bei einem Fehler der Chip Rebuild oder das Betriebssystem das macht. Mein Server hat 2 Raid Kontroller, einer als Steckkarte SAS MagaRaid system. Das ist ein vollwertiger Raidkontroller, das System sieht nur eine Platte. Und das Raid auf dem MB, da sieht das System beide Platten. Ich bin nu irrtümlich davon ausgegangen, dass das ZFS auf den HW-Raid aufbauen kann. Das kann es nicht. Und ein Raid auf der Basis wie es Gmirror macht will ich nicht. Wobei Gmirror eine gute Wahl ist und viele gute Eigenschaften liefert wie etwa ein Raid1 mit 3 Disks. Wobei Hast auch nicht unerwähnt bleiben sollte.

Das Risiko, dass ich da was falsch mache war mir dann echt zu groß. Vielleicht später wieder, aber dann muss ich erst richtige Erfarungen mit ZFS sammeln da ich auf meinen NAS-Platten noch genügend platz habe kann ich da das ZFS ausprobieren und Erfahrungen sammeln, aber für eine Bootplatte ist mir das im moment zu gefährlich weil ich keine Lust habe das System neu aufzusetzen, ja ich habe ja noch die Kopie, richtig. Aber nach Murphy tritt immer dann ein Totalverlust ein wenn man es am wenigsten gebrauchen kann.

Früher hat mir das nichts ausgemacht ein System neu zu installieren, heute bin ich auf sowas nicht mehr scharf.

Grüße

Notabene
Ich möchte mich dennoch für eure Bemühungen bedanken, und sie gehen ja nicht verloren. Vielleicht gehe ich das wieder an wenn ich damit Erfahrung gesammelt habe.
 
Alles, was du zu Raid sagst, kann man natürlich nur unterstreichen.
Der einzige Fehler: ZFS macht das alles ebenso und vollkommen ohne HW-Kontroller und deshalb eben besser.
Du kannst bei einem ZFS (in Abhängigkeit verfügbarer Devices natürlich) quasi jede Raid-Konfiguration haben. Ich habe zB in meinem PC inzwischen vier Platten zu einem einzigen Mirror verbunden. In meinem NAS habe ich fünf Platten zu einem "Zraid-5" zusammengelegt, also nur eine Platte Redundanz. ZFS ist da super flexibel und einfach zu handhaben. Sowohl das Erweitern eines Pools als das Ersetzen einzelner Platten gelingt wenigstens so einfach, wie mit einem HW-Kontroller.

Nur, beim HW.Kontroller bist du absolut abhängig davon, dass der auch funktioniert und wenn er mal versagt, kannst du nur mit einem gleichen Kontroller wieder auf die Daten zugreifen, wenn überhaupt. Beim ZFS-Pool kannst du den einfach in einen neuen PC hängen und gut ist. Beispielhaft und vereinfacht gesagt.
 
Alles, was du zu Raid sagst, kann man natürlich nur unterstreichen.
Der einzige Fehler: ZFS macht das alles ebenso und vollkommen ohne HW-Kontroller und deshalb eben besser.
Du kannst bei einem ZFS (in Abhängigkeit verfügbarer Devices natürlich) quasi jede Raid-Konfiguration haben. Ich habe zB in meinem PC inzwischen vier Platten zu einem einzigen Mirror verbunden. In meinem NAS habe ich fünf Platten zu einem "Zraid-5" zusammengelegt, also nur eine Platte Redundanz. ZFS ist da super flexibel und einfach zu handhaben. Sowohl das Erweitern eines Pools als das Ersetzen einzelner Platten gelingt wenigstens so einfach, wie mit einem HW-Kontroller.

Nur, beim HW.Kontroller bist du absolut abhängig davon, dass der auch funktioniert und wenn er mal versagt, kannst du nur mit einem gleichen Kontroller wieder auf die Daten zugreifen, wenn überhaupt. Beim ZFS-Pool kannst du den einfach in einen neuen PC hängen und gut ist. Beispielhaft und vereinfacht gesagt.

Ja, da hast du vollkommen recht. Mir scheint, dass ZFS wie ein Volume-Manager ist, dass macht das natürlich sehr Flexiebel.
HW-Raid haben auch ihre Vorteile, Jedoch möchte ich nun erst Erfahrungen mit ZFS sammel und dann gehe ich das vielleicht wieder an. Aber im Moment wird mir das echt zu viel (Zu viele Baustellen)

Dennoch danke für eure Hilfestellung.
 
Mir scheint, dass ZFS wie ein Volume-Manager ist
ZFS ist:
* ein Software-RAID
* ein Volume Manager
* ein Dateisystem

Alles in einem. Deswegen will man das ja haben :)

Und natürlich kannst du ein ZFS Pool auch auf einen RAID Device legen, nur wird das halt nicht empfohlen, weil ZFS besser läuft wenn es um die Plattentopologie weiß.
 
ZFS ist:
* ein Software-RAID
* ein Volume Manager
* ein Dateisystem

Alles in einem. Deswegen will man das ja haben :)

Und natürlich kannst du ein ZFS Pool auch auf einen RAID Device legen, nur wird das halt nicht empfohlen, weil ZFS besser läuft wenn es um die Plattentopologie weiß.

Des Mensch Herz ist wankelmütig. Gestern war ich ziemlich fertig und hatte von allem so ziemlich genug. Heute habe ich wieder mehr Mut. Vielleicht geht ich es doch noch einmal an.
Wie verhält sich ZFS Raid, wenn ich im Mainboard das Raid aktiviert lasse und im ZFS Raid die disks ada0 und ada1 direkt anspreche? Kommt es das zu Konflikten?

Grüße
 
Sind ada0 und ada1 jeweils Hardware RAID Volumes? Oder direkt die Platten? In dem Fall ist der RAID Controller dann ja nur einfacher Plattencontroller mit Cache.
 
Sind ada0 und ada1 jeweils Hardware RAID Volumes? Oder direkt die Platten? In dem Fall ist der RAID Controller dann ja nur einfacher Plattencontroller mit Cache.
FreeBSD erkennt den HW-Raid Kontroller und bindet automatisch graid ein. das ergibt dann ein virtuelles LW in /dev/raid/r0 Mit graid kann dann der status abgefragt und auch den Chip im Mainboard konfiguriert werden. Zum beispiel eine weitere Platte einbinden.

ada0 und ada1 sind die physischen Disks. Ich vermute dass man das dann auch in ZFS verwenden kann?
Mein Versuch war natürlich die Installation auf raid/r0. Das scheiterte aber dann beim booten. Ich denke, dass ich dann da ada0,1 direkt angeben muss.

Code:
root@superserver:/compat/linux/downloads # graid status
   Name   Status  Components
raid/r0  OPTIMAL  ada0 (ACTIVE (ACTIVE))
                  ada1 (ACTIVE (ACTIVE))


Code:
root@superserver:/compat/linux/downloads # graid list -a
Geom name: Intel-240382fb
State: OPTIMAL
Metadata: Intel
Providers:
1. Name: raid/r0
   Mediasize: 121653690368 (113G)
   Sectorsize: 512
   Mode: r2w2e5
   Subdisks: ada1 (ACTIVE), ada0 (ACTIVE)
   Dirty: Yes
   State: OPTIMAL
   Strip: 65536
   Components: 2
   Transformation: RAID1
   RAIDLevel: RAID1
   Label: SSD RAID 1
   descr: Intel RAID1 volume
Consumers:
1. Name: ada0
   Mediasize: 128035676160 (119G)
   Sectorsize: 512
   Mode: r1w1e1
   ReadErrors: 0
   Subdisks: r0(SSD RAID 1):1@0
   State: ACTIVE (ACTIVE)
2. Name: ada1
   Mediasize: 128035676160 (119G)
   Sectorsize: 512
   Mode: r1w1e1
   ReadErrors: 0
   Subdisks: r0(SSD RAID 1):0@0
   State: ACTIVE (ACTIVE)
 
Hab mir nun eine zusätzliche SSD bestellt.
Kopieren per Raid geht schneller und dient dann auch gleich als Backup.
Wenn die geliefert wird, dann versuch ich nochmal :)

Grüße
 
Zurück
Oben