Mount zfs partition -

bombi

New Member
Hallo beisammen,

ich bitte um Hilfe beim folgendem Problem. Wie bekomm ich Zugriff auf 184 Gig Partition?

Code:
=>       63  488397105  ada0  MBR  (232G)
         63       1985        - free -  (992k)
       2048     204800     1  ntfs  (100M)
     206848  102195200     2  freebsd  [active]  (48G)
  102402048       2046        - free -  (1M)
  102404094  385992706     3  freebsd  (184G)
  488396800        368        - free -  (184k)
 
Hallo @bombi,

zeige doch bitte zunächst mal ein:
Code:
gpart show -p ada0

wenn Du nicht weißt, wie der zu importierende Pool heißt, gib einfach ein
Code:
zpool import
ein, Dir werden dann die zur Verfügung stehenden Poole gezeigt.

Du kannst dann mit
Code:
zpool import -f -R <mountpunkt> <poolname>
den Pool in ein Verzeichnis Deiner Wahl, z.B. /mnt einhängen.

Viele Grüße,
Holger
 
Code:
gpart show /dev/ada0
=>       34  312581741  ada0  GPT  (149G)
         34          6        - free -  (3.0K)
         40       1024     1  freebsd-boot  (512K)
       1064        984        - free -  (492K)
       2048  312578048     2  freebsd-zfs  (149G)
  312580096       1679        - free -  (840K)
Ich nehme an, dass dies oben schon eine Ausgabe von gpart show ist, weil die Formatierung ziemlich gleich aussieht. In meinem Beispiel wird da ein ZFS angezeigt und das heißt dann nämlich freebsd-zfs. Davon sehe ich im Eingangsbeispiel nichts und vermute daher, dass es dort kein ZFS drauf gibt. Der 184G Teil ist als freebsd gelistet, nicht als freebsd-zfs.
Aus einem anderen System zeige ich das mal:
Code:
gpart show /dev/ada0
=>       63  125045361  ada0  MBR  (60G)
         63  125045298     1  freebsd  [active]  (60G)
  125045361         63        - free -  (32K)

mmls /dev/ada0
DOS Partition Table
Offset Sector: 0
Units are in 512-byte sectors

      Slot      Start        End          Length       Description
000:  Meta      0000000000   0000000000   0000000001   Primary Table (#0)
001:  -------   0000000000   0000000062   0000000063   Unallocated
002:  000:000   0000000063   0125045360   0125045298   BSD/386, 386BSD, NetBSD, FreeBSD (0xa5)
003:  -------   0125045361   0125045423   0000000063   Unallocated

file -s /dev/ada0
/dev/ada0: DOS/MBR boot sector; partition 1 : ID=0xa5, active, start-CHS (0x0,1,1), end-CHS (0x3ff,255,63), startsector 63, 125045298 sectors

file -s /dev/ada0s1
/dev/ada0s1: DOS/MBR boot sector, BSD disklabel

fdisk /dev/ada0
******* Working on device /dev/ada0 *******
parameters extracted from in-core disklabel are:
cylinders=124053 heads=16 sectors/track=63 (1008 blks/cyl)

Figures below won't work with BIOS for partitions not in cyl 1
parameters to be used for BIOS calculations are:
cylinders=124053 heads=16 sectors/track=63 (1008 blks/cyl)

Media sector size is 512
Warning: BIOS sector numbering starts with sector 1
Information from DOS bootblock is:
The data for partition 1 is:
sysid 165 (0xa5),(FreeBSD/NetBSD/386BSD)
    start 63, size 125045298 (61057 Meg), flag 80 (active)
	beg: cyl 0/ head 1/ sector 1;
	end: cyl 1023/ head 255/ sector 63
The data for partition 2 is:
<UNUSED>
The data for partition 3 is:
<UNUSED>
The data for partition 4 is:
<UNUSED>
mmls ist nicht Bestandteil einer Standardinstallation und stammt aus dem sleuthkit.
Wenn deine Information entsprechend ausfällt (es genügt eine sichere Information über das Datei-System) kannst du davon ausgehen, dass es ein UFS und kein ZFS ist.
Für mich sieht dein Beispiel nach einer Platte aus, die ein Windows als erstes System drauf hatte und dann ein BSD zusätzlich installiert wurde und auf zwei Partitionen verteilt wurde. Vermutlich wurde die aktive Partition für / benutzt und die 184G dann für /usr/home/ oder so etwas. Dann könnte es auch gut sein, dass die 184G verschlüsselt wurde und du wirst die dann nicht mounten können. Ich weiß nicht, ob verschlüsselte Partitionen immer noch den Typ freebsd anzeigen, unter FreeBSD hatte ich noch nie verschlüsselt.
 
Hallo und Danke fuer die Antworten,

Kurz zur Historie: Das ist mein Laptop hdd. Zunaechst war die Aufteilung der Systeme und Partitionen wie folgt:
-50gig win 7 (fuer den uni vpn client)
-190gig pc-bsd (eigentliches Arbeitssystem mit meinen Daten)

Eines tages hab ich mal in ein Ubuntu live system gebootet, danach war mein Grub kaput. Hab dann versucht mit dem Ubuntu live an die Daten zu kommen, hat nicht geklappt. Hab dann auf die 50 gig partition nochmal pc-bsd installiert wovon ich jetzt 'arbeite'.

Code:
[user1@pcbsd-6165] ~% gpart show -p ada0
=>       63  488397105    ada0  MBR  (232G)
         63       1985          - free -  (992k)
       2048     204800  ada0s1  ntfs  (100M)
     206848  102195200  ada0s2  freebsd  [active]  (48G)
  102402048       2046          - free -  (1M)
  102404094  385992706  ada0s3  freebsd  (184G)
  488396800        368          - free -  (184k)

[user1@pcbsd-6165] ~% zpool import
cannot discover pools: permission denied
[user1@pcbsd-6165] ~% sudo zpool import
Password:
   pool: pool-test
     id: 9704097314031299993
  state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
   see: http://illumos.org/msg/ZFS-8000-EY
config:

        pool-test   UNAVAIL  newer version
          ada0s3    ONLINE
[user1@pcbsd-6165] ~%

@holgerw: ist <mountpunkt> = ada0s3?
 
der Pool pool-test auf ada0s3 aka deiner 184GB Partition ist korrupt. Du könntest mal ein
Code:
zpool import -f pool-test
versuchen - grosse Hoffnungen würde ich mir aber nicht machen.
 
Wenn du an die Daten ran möchtest, hat bei mir der mount innnerhalb eines (Live-) UFS Dateisystems funktioniert.

# zpool import
Alle verfügbaren Pools anzeigen

# zpool import -f <poolname>

# mount -t zft <poolname> /mnt

zfs.ko usw. lädt automatisch
 
Was du beschreibst, ist merkwürdig.
Ich weiß nicht, wie pc-bsd heute Platten automatisch formatiert, aber es sieht für mich überhaupt nichts nach einem ZFS aus, was ich bei dir sehen kann.
Wenn du vorher einen Zpool über den kompletten Bereich außerhalb Windows hattest und nun ein neues System erstellt hast und dabei dann zwei Partitionen mit UFS angelegt wurden, dann macht deine Aussage für mich ein wenig Sinn, allerdings kann ich mir in keinem Fall erklären, wie und woher bei dir der pool-test erkannt wird.
Meiner Ansicht nach hast du zwei Partitionen mit UFS und keinen Zpool.
Wahrscheinlich sind auch beide Partitionen bereits gemountet.
Wenn du mal einen ZFS-Pool gehabt hattest (wie oben angenommen) ist er geschrottet. Dass zpool import überhaupt den pool-test findet, verwundert mich und ich kann es mir nicht erklären. Ich sehe kein ZFS.
Du kannst dir das nochmal genauer ansehen.
Versuch es mal mit file -s, wie vorher mal gezeigt.
Außerdem ist die Ausgabe von mount nicht uninteressant für diesen Fall.
Wenn es eine UFS-Partition ist, die nicht bereits automatisch vom System eingebunden wurde, dann könntest du irgendwohin mounten. Leg einfach einen mountpoint an. etwa:
mkdir meinpunkt
mount /dev/ada0s3 meinpunkt

Ich will meine Vermutung erklären, ohne dir zu nahe treten zu wollen, aber, damit du weißt, wie und was ich denke.
ist <mountpunkt> = ada0s3?
zeigt, dass du nicht weißt, was mounten bedeutet. Das ist nicht schlimm, das können wir dir sagen. Es sind allerdings Dinge, die ich als Grundlage bezeichnen würde. Man muss immer wissen, was man einem gegenüber abverlangen kann und das ist sehr schwer einzuschätzen, wenn man nur einen einzigen Beitrag als Referenz hat.

Früher war es so (und ist heute auch bei FreeBSD noch so), dass PC-BSD nicht einfach Partitionen anlegte und Dateisysteme darauf einrichtete, ohne auch gleichzeitig nach einem Mountpoint zu fragen, der dann auch automatisch eingerichtet (also in die fstab eingetragen) wurde. Vermutlich ist das auch heute noch so und du hast dann (immer noch pure Vermutung) bei der Installation nicht nur die 48G Partition eingerichtet, sondern eben auch die 184G. Dann werden beide mit hoher Wahrscheinlichkeit vom System direkt eingebunden, du weißt das nur noch nicht.
Deshalb fragte ich nach mount.
mount ohne Optionen zeigt alles, was gemountet ist und wenn diese Vermutung trifft, dann würde dort das /dev/ada0s3 als gemountet erscheinen.

Die nächste Vermutung ist, dass du tatsächlich nur die 48G neu angelegt hast und die 184G irgendwie der Rest des alten Zpools sind.
Dann wäre der aber zerstört und ich kann mir nicht erklären, warum gpart den Typ freebsd anzeigt.
Es könnte aber vielleicht erklären, weshalb zpool import einen alten Pool findet.

Die weiteren Vermutungen liegen irgendwo dazwischen und ich will die nun nicht alle beschreiben.
Es ist eher an dir, Klarheit zu schaffen und exakt hin zu schauen.
 
Code:
[user1@pcbsd-6165] ~% sudo zpool import
Password:
pool: pool-test
id: 9704097314031299993
state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
see: http://illumos.org/msg/ZFS-8000-EY
config:

pool-test UNAVAIL newer version
ada0s3 ONLINE

Der Pool ist in einer neueren ZFS-Version erstellt worden, als dein System unterstützt. Alternativ wurde er zwischendurch mal auf sie aktualisiert, Update zumindest den Kernel und es hat gute Chancen zu funktionieren. :)
 
Der Pool ist in einer neueren ZFS-Version erstellt worden, als dein System unterstützt.
Aber müsste dann nicht gpart show auch zeigen, dass hier ein zfs benutzt wird? Es zeigt doch kein freebsd-zfs sondern nur ein freebsd als Typ für diese Partition. Oder soll das auch daher rühren, dass die Version des ZFS zu neu ist und daher hier nicht der richtige Typ erkannt wird? Das wäre doch irgendwie schräg, dann eine falsche Ausgabe zu liefern.
Mir kommen die Angaben merkwürdig und unschlüssig vor.
 
Das sind MBR-Partitionen. Da ist der Partitionstyp für alle Dateisysteme einfach "freebsd". Es ist für nahezu alle Betriebssystem übrigens egal, da sie die Dateisysteme unabhängig von der Partition identifizieren. Die große Ausnahme ist da Windows, was sich ohne passenden Partitionstyp weigert irgendwas zu machen...
 
Code:
[user1@pcbsd-6165]
[user1@pcbsd-6165] ~% sudo zpool import
Password:
   pool: pool-test
     id: 9704097314031299993
  state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
   see: http://illumos.org/msg/ZFS-8000-EY
config:

        pool-test   UNAVAIL  newer version
          ada0s3    ONLINE
[user1@pcbsd-6165] ~%

interessant finde ich, dass ein <zpool import> hier überhaupt etwas anzeigt!

Bisher dachte ich nämlich, dass hierfür ein <zpool list> notwendig wäre, weil ein
<zpool import> nur die Pools darstellt, die auch importfähig sind, bzw. importiert werden könnten.
Aber dem ist ja offensichtlich nicht so.
 
Zurück
Oben