Boot Environment als Platzfresser

peterle

Forenkasper
Ich habe einen netten Server mit 2x 512GB Platten als Mirror im zpool.
Ein df -h läßt einigen Platz vermissen, der dann scheinends in einem Snapshot für ein Boot Environment rumgammelt.

Nun frage ich mich, ob ich alle nicht genutzten Boot Environments mittels bectl destroy einfach wegschmeißen kann oder dabei unbedarft über eine Klippe springe?


Code:
root@sql:/ # zpool status
  pool: zroot
 state: ONLINE
  scan: scrub repaired 0 in 0 days 00:22:47 with 0 errors on Sun Jan 24 15:19:23 2021
config:

    NAME        STATE     READ WRITE CKSUM
    zroot       ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        nvd0p3  ONLINE       0     0     0
        nvd1p3  ONLINE       0     0     0

errors: No known data errors
root@sql:/ # smartctl -a /dev/nvme0 | grep Total
Total NVM Capacity:                 512,110,190,592 [512 GB]
root@sql:/ # smartctl -a /dev/nvme1 | grep Total
Total NVM Capacity:                 512,110,190,592 [512 GB]
root@sql:/ # df -h
Filesystem            Size    Used   Avail Capacity  Mounted on
zroot/ROOT/default    226G    104G    122G    46%    /
devfs                 1.0K    1.0K      0B   100%    /dev
zroot/tmp             122G    3.2M    122G     0%    /tmp
zroot                 122G     96K    122G     0%    /zroot
zroot/var/log         122G    2.6M    122G     0%    /var/log
zroot/usr/ports       123G    655M    122G     1%    /usr/ports
zroot/var/audit       122G     96K    122G     0%    /var/audit
zroot/var/mail        122G    5.2M    122G     0%    /var/mail
zroot/var/tmp         122G     96K    122G     0%    /var/tmp
zroot/usr/home        122G    136K    122G     0%    /usr/home
zroot/var/crash       122G     96K    122G     0%    /var/crash
zroot/usr/src         122G     96K    122G     0%    /usr/src
root@sql:/ # bectl list
BE                                Active Mountpoint Space Created
12.3-RELEASE-p5_2022-11-12_112038 -      -          154G  2022-11-12 11:20
12.3-RELEASE-p8_2023-09-30_120746 -      -          366M  2023-09-30 12:07
12.4-RELEASE-p5_2023-09-30_122258 -      -          85.1M 2023-09-30 12:22
default                           NR     /          334G  2018-05-01 08:33
root@sql:/ # bectl list -s -c creation
BE/Dataset/Snapshot                            Active Mountpoint Space Created

default
  zroot/ROOT/default                           NR     /          334G  2018-05-01 08:33
  default@2022-11-12-11:20:38-0                -      -          154G  2022-11-12 11:20
  default@2023-09-30-12:07:46-0                -      -          366M  2023-09-30 12:07
  default@2023-09-30-12:22:58-0                -      -          85.1M 2023-09-30 12:22

12.3-RELEASE-p5_2022-11-12_112038
  zroot/ROOT/12.3-RELEASE-p5_2022-11-12_112038 -      -          8K    2022-11-12 11:20
    zroot/ROOT/default@2022-11-12-11:20:38-0   -      -          154G  2022-11-12 11:20

12.3-RELEASE-p8_2023-09-30_120746
  zroot/ROOT/12.3-RELEASE-p8_2023-09-30_120746 -      -          8K    2023-09-30 12:07
    zroot/ROOT/default@2023-09-30-12:07:46-0   -      -          366M  2023-09-30 12:07

12.4-RELEASE-p5_2023-09-30_122258
  zroot/ROOT/12.4-RELEASE-p5_2023-09-30_122258 -      -          8K    2023-09-30 12:22
    zroot/ROOT/default@2023-09-30-12:22:58-0   -      -          85.1M 2023-09-30 12:22
root@sql:/ #
 
wenig Erfahrung damit, aber bei meinen letzten Spielereien war das gar kein Problem.
Es sind ja einfach nur snapshots, nur das bectl die erzeugt und snaps, die man nicht braucht oder nicht mehr will, kann man auch weg hauen.

Ja, ich konnte mich auch deshalb noch nicht wirklich für Bootenvironments entscheiden, da sie mir dann im Katastrophenfall doch nicht weiter geholfen hatten. Mein Update von 13 nach 14 war nämlich gescheitert und ließ mich in einem Nirwana zurück. Da musste ich dann ganz gewöhnlich wieder Hand anlegen und hatte dabei auch ein besseres Gefühl und einen besseren Überblick, als mit den Bootenvironments, die für mich zugegeben auch Neuland waren.

Zuvor hatte ich mir aber schon als Taktik überlegt, nur ganz wenige Environments zu benutzen und sofort, wenn ich etwa ein veraltetes nicht mehr brauchen würde, dieses auch zu löschen. Genau genommen kann man ja vor einen Release-Update noch eines anlegen, wobei das freebsd-update auch irgendwie selber macht.
 
zfs list -t snapshot

Ich würde den ganz alten snapshot (12.3-RELEASE-p5_2022-11-12_112038) kicken, der frisst 154G. Wegen des ZFS-bugs willst du eigentlich eh auf 14-R ;)
 
Und so ist das dann, wenn man dann mal eben schnell sich verleiten lässt ebenso schnell noch ein upgrade zu machen ... man stolpert über einen anderen Fehler im upgrade und steht dann mit runtergelassener Hose vor einem im Upgrade Prozess gelöschten Passwort für root ...
 
Deswegen installiere ich immer erst das letzte update bevor ich in upgrade mache :)
Ja, nun, ich hatte ja 6 Stunden vorher ein Upgrade auf 13.3 gemacht. Ich hätte nur bei der Frage nach dem ändern von /etc/passwd stutzen sollen, hab ich aber müde wie ich war leider nicht.
Aber so darf ich Lara wieder benutzen und habe an allen anderen Servern direkt mal eine Rückfallebene für so einen Mist eingebaut.
 
Zurück
Oben