beadm raubt mir noch meine letzten nicht ergrauten Haare

crotchmaster

happy BSD user
Hallo FreeBSD User,

in einem Thread der letzten Tage erwähnte Yamagi beadm und boot environments. Ich also mein poudriere angeworfen, beadm bauen lassen und in meiner Entwicklung-VM installiert. Anschließend habe ich:
Code:
beadm list
beadm create -e default upgrade-test
beadm list
beadm activate upgrade-test
abgesetzt. Den Output von beadm list kann ich im Moment nicht posten, aber die default BE und hinterher die neue BE existier(t)en.

Ein reboot war dann doch sehr ernüchternd, da das System nicht mehr hochkommt. Zum Glück hatte ich einen Snapshot der VM gemacht. Das habe ich mehrmals ausprobiert und bin jedesmal gescheitert. Ich hänge mal zwei Screenshots der console an, vielleicht hilft es ja. Was mache ich verkehrt?
 

Anhänge

  • Bildschirmfoto 2017-07-17 um 17.41.27.png
    Bildschirmfoto 2017-07-17 um 17.41.27.png
    67,4 KB · Aufrufe: 447
  • Bildschirmfoto 2017-07-17 um 17.41.56.png
    Bildschirmfoto 2017-07-17 um 17.41.56.png
    71 KB · Aufrufe: 411
Genau das ist mir letzte Woche passiert, als ich nur mal schnell den BSDForen.de-Server rebooten wollte um ein paar Updates einzuspielen. Das Problem war, dass aus nicht nachvollziehbaren Gründen - genauer gesagt war BSDForen.de ein schlechter Ort um das umfassend zu analysieren - das Root-Dateisystem zweimal gemountet war. Einmal das ausgewählte Boot-Environment, dann das vorherige und damit inaktive Bootenvironment noch einmal oben rüber. Es überdeckte /dev, was das System nicht wirklich lustig fand.

Ich habe dann auf Reset drücken müssen, habe in den Single User Mode gebootet und das alte Boot Environment dort manuell deaktiviert:
Code:
% zfs set mountpoint=none system/ROOT/$dataset

Danach ging es denn wieder. Ich hatte den Verdacht, dass es vielleicht am da gerade neuen 11.1-RC2 lag, konnte es aber zu Hause auf anderer Hardware nicht reproduzieren. Damit hatte ich es als Zufall abgehakt.
 
Was hast du zwischen dem anlegen des Snapshots und dem Reboot gemacht?
Außer dem Absetzen von shutdown -r now absolut nichts, da ich einfach klein anfangen wollte.

Zeig doch auch gleich noch den Aufbau deiner HDD und von ZFS!
Code:
camcontrol devlist
gpart show -lp
zpool status
zfs list
Gruss

Code:
[root@freebsd-vm ~]# camcontrol devlist
<VMware, VMware Virtual S 1.0>     at scbus2 target 0 lun 0 (pass0,da0)
<VMware, Virtual CD-ROM 1.0>       at scbus2 target 1 lun 0 (cd0,pass1)

Code:
[root@freebsd-vm ~]# gpart show -lp
=>       34  209715133    da0  GPT  (100G)
         34          6         - free -  (3.0K)
         40       1024  da0p1  gptboot0  (512K)
       1064        984         - free -  (492K)
       2048    4194304  da0p2  boot0  (2.0G)
    4196352    4194304  da0p3  swap0  (2.0G)
    8390656  201324511  da0p4  (null)  (96G)

Code:
[root@freebsd-vm ~]# zpool status -v

  pool: bootpool

 state: ONLINE

  scan: none requested

config:



        NAME        STATE     READ WRITE CKSUM

        bootpool    ONLINE       0     0     0

          da0p2     ONLINE       0     0     0



errors: No known data errors



  pool: zbackup

 state: UNAVAIL

status: One or more devices could not be opened.  There are insufficient

        replicas for the pool to continue functioning.

action: Attach the missing device and online it using 'zpool online'.

  see: http://illumos.org/msg/ZFS-8000-3C

  scan: none requested

config:



        NAME                    STATE     READ WRITE CKSUM

        zbackup                 UNAVAIL      0     0     0

          17524849400079036050  UNAVAIL      0     0     0  was /dev/da1



  pool: zroot

 state: ONLINE

status: One or more devices has experienced an error resulting in data

        corruption.  Applications may be affected.

action: Restore the file in question if possible.  Otherwise restore the

        entire pool from backup.

  see: http://illumos.org/msg/ZFS-8000-8A

  scan: none requested

config:



        NAME        STATE     READ WRITE CKSUM

        zroot       ONLINE       0     0    88

          da0p4     ONLINE       0     0   363



errors: Permanent errors have been detected in the following files:



        <0x40>:<0x1>

        <0xffffffffffffffff>:<0x1>

Code:
[root@freebsd-vm ~]# zfs list
NAME                                                                                 USED  AVAIL  REFER  MOUNTPOINT
bootpool                                                                             222M  1.71G   220M  /bootpool
zroot                                                                               26.0G  66.5G    19K  /zroot
zroot/ROOT                                                                          13.6G  66.5G    19K  none
zroot/ROOT/default                                                                  13.6G  66.5G  13.1G  /
zroot/docker                                                                        72.1M  66.5G  5.83M  /usr/docker
zroot/docker/0b6be7207502d221b942920b8555d90d7f0dd9528d8552b47cfc31a771072f9f          1K  66.5G  59.6M  legacy
zroot/docker/0b6be7207502d221b942920b8555d90d7f0dd9528d8552b47cfc31a771072f9f-init    55K  66.5G  59.6M  legacy
zroot/docker/0cc044492ad6447fa742ca76a75054ed450f4f28564f7fe1cb0ee48a1c3652d1          1K  66.5G  59.6M  legacy
zroot/docker/0cc044492ad6447fa742ca76a75054ed450f4f28564f7fe1cb0ee48a1c3652d1-init    55K  66.5G  59.6M  legacy
zroot/docker/1bec4fec337dd30384070617f9870753f713303b05fc495fe1cc7827ee79adab         56K  66.5G  59.6M  legacy
zroot/docker/3028447759a86bed43a204c756b42a25e8c079df5f606a5a4a88af6e1bc5a70e         32K  66.5G  59.6M  legacy
zroot/docker/7fc194f7336bc9f166b0250d04471d2b2514d6ab8e231de508f89f70296778aa       65.9M  66.5G  65.9M  legacy
zroot/docker/7fd8450b82cbd620026816c080428b8debbf190d4a579300e0b71450cbb8bc74        102K  66.5G  65.9M  legacy
zroot/docker/a39e6338b6c0b3af21622f9c04b0402b58ecc1f01504aa5dedfd7a6466bb54ad         39K  66.5G  59.6M  legacy
zroot/docker/c9d7cbde622b0d10b3a0a32aea7e70d38842c804979368db7f2cd005973a2089       44.5K  66.5G  59.6M  legacy
zroot/jails                                                                         5.13G  66.5G  75.5K  /jails
zroot/jails/basejail                                                                 454M  66.5G   414M  /jails/basejail
zroot/jails/dbserver                                                                2.61G  66.5G  2.47G  /jails/dbserver
zroot/jails/newjail                                                                 2.07M  66.5G  2.07M  /jails/newjail
zroot/jails/poudriere                                                                764M  66.5G   696M  /jails/poudriere
zroot/jails/webserver                                                               1.32G  66.5G   971M  /jails/webserver
zroot/postgresdb                                                                     149M  66.5G  39.3M  /var/db/postgres
zroot/postgresdb/tablespaces                                                        54.6M  66.5G    21K  /var/db/postgres/tablespaces
zroot/postgresdb/tablespaces/bitbucket_ts                                           2.14M  66.5G  2.14M  /var/db/postgres/tablespaces/bitbucket_ts
zroot/postgresdb/tablespaces/blp_ts                                                 1.45M  66.5G  1.45M  /var/db/postgres/tablespaces/blp_ts
zroot/postgresdb/tablespaces/jira_ts                                                2.99M  66.5G  2.99M  /var/db/postgres/tablespaces/jira_ts
zroot/postgresdb/tablespaces/phalcon_ts                                             1.41M  66.5G  1.41M  /var/db/postgres/tablespaces/phalcon_ts
zroot/postgresdb/tablespaces/ttrss_ts                                               46.6M  66.5G  46.6M  /var/db/postgres/tablespaces/ttrss_ts
zroot/poudriere                                                                     1.19G  66.5G    19K  /zroot/poudriere
zroot/poudriere/data                                                                17.5M  66.5G    20K  /pd/data
zroot/poudriere/data/.m                                                               19K  66.5G    19K  /pd/data/.m
zroot/poudriere/data/cache                                                          37.5K  66.5G  37.5K  /pd/data/cache
zroot/poudriere/data/logs                                                           1.02M  66.5G  1.02M  /pd/data/logs
zroot/poudriere/data/packages                                                       16.4M  66.5G  16.4M  /pd/data/packages
zroot/poudriere/data/wrkdirs                                                          19K  66.5G    19K  /pd/data/wrkdirs
zroot/poudriere/jails                                                                936M  66.5G    19K  /zroot/poudriere/jails
zroot/poudriere/jails/fbsd130armv6                                                   936M  66.5G   936M  /pd/jails/fbsd130armv6
zroot/poudriere/ports                                                                268M  66.5G    19K  /zroot/poudriere/ports
zroot/poudriere/ports/default                                                        268M  66.5G   268M  /pd/ports/default
zroot/tmp                                                                            324K  66.5G   182K  /tmp
zroot/usr                                                                           4.51G  66.5G    19K  /usr
zroot/usr/home                                                                       430M  66.5G   430M  /usr/home
zroot/usr/ports                                                                     3.20G  66.5G  3.10G  /usr/ports
zroot/usr/src                                                                        917M  66.5G   910M  /usr/src
zroot/var                                                                            626K  66.5G    19K  /var
zroot/var/audit                                                                       19K  66.5G    19K  /var/audit
zroot/var/crash                                                                       19K  66.5G    19K  /var/crash
zroot/var/log                                                                        420K  66.5G   248K  /var/log
zroot/var/mail                                                                       118K  66.5G    88K  /var/mail
zroot/var/tmp                                                                         31K  66.5G    22K  /var/tmp
 
Ich hab den Reformationstag dafür genutzt, verschiedene Dinge nochmal auszuprobieren, u.a. auch beadm. Ich bekam beim Erstellen der BE wieder eine Fehlermeldung bezgl. des Kopierens von Dateien. Die google Suche brachte dann einen Post von Alan Jude zu tage, wonach beadm nicht geht, wenn man einen separaten bootpool hat. Da ich sowie mit dem bare metal recovery meines zroot Pools gespielt hatte, habe ich den Pool einfach nochmal in eine freebsd-zfs Partition einer frischen 11.1 Installation wieder hergestellt und den Inhalt von boot des alten bootpools ebenfalls reinkopiert. Nach einem Neustart klappte es auch mit beadm. Ebenso der Neustart mit einer erstellten und aktivierten BE.
 
Mal eine Frage dazu:

Wenn ich manuell ein zfs-on-root aufsetzte und dann weitere Datasets mit verschiedenen FreeBSD Installationen hinzu füge, bietet mir der FreeBSD Bootloader die zur Auswahl an, ohne beadm noch aufsetzen zu müssen.

Was bringt mir da beadm überhaupt?
 
Die Datasets elegant verwalten zu können, ohne dich mit den Tiefen von ZFS herumschlagen zu müssen. Letztendlich ist beadm aber wirklich nur ein recht simples Shellscript um ein paar ZFS-Befehle drum herum und nicht zwingend notwendig.
 
Die Datasets elegant verwalten zu können, ohne dich mit den Tiefen von ZFS herumschlagen zu müssen. Letztendlich ist beadm aber wirklich nur ein recht simples Shellscript um ein paar ZFS-Befehle drum herum und nicht zwingend notwendig.
Hallo @Yamagi

hab es vermutet, dass beadm ein Helferlein für Sachen ist, die auch zu "Fuß" gehen.

Danke für die Info.
 
Zurück
Oben