zfs falsch eingebunden?

ferengie

Member
Jun 15, 2024
50
3
8
hallo Zusammen;

ich habe mir das Ganze nochmal angesehen.



Ich habe den Eindruck, dass ich beim Einhängen des zfs einen Fehler gemacht habe.
ich hab vom alten System zwei zfs übernommen:
1751028725584.png
1751028791363.png

Ich kann auf keinem der zfs eine neue vm erstellen, wo kann ich weiter Informationen dazu finden, was hier los ist.

gruss
Ferengie
 
Last edited:
Bis auf den Typo in Crucial sieht das alles richtig aus. Wie schaut denn die Dropdown-Liste aus wenn du eine VM erstellst und hier klickst?
1751029180570.png
Ich würde auch mal pvesm status prüfen.
 
hallo Zusammen;

ich habe mir das Ganze nochmal angesehen.



Ich habe den Eindruck, dass ich beim Einhängen des zfs einen Fehler gemacht habe.
ich hab vom alten System zwei zfs übernommen:
View attachment 87542
View attachment 87543

Ich kann auf keinem der zfs eine neue vm erstellen, wo kann ich weiter Informationen dazu finden, was hier los ist.

gruss
Ferengie
Bitte mal den Namen des ZFS Pools Cricial.. anpassen
 
ich fass das geschehene auf Wunsch nochmal kurz zusammen:
* ursprungssystem mit zwei zfs-pools gecrashed
* neu installiert
* pool mit namen "local-zfs" wieder hergestellt
* VM Config zurückgespielt
* vms in dem pool laufen
-------------------------

* zweiten pool auch eingebunden (bin mir aber beim Namen nicht mehr sicher gewesen)
* der zweite Pool ist nur eine disk (Cruical mit 2TB)
--> da ich beim Einbinden einen Fehler gemacht haben dürfte, und diese dist auch im pool "zfs-local" gelandet ist, sind die vm-disks so komisch sichtbar gewesen.

--> ich hab den pool-namen in storage.cfg geändert und dann ist das Problem 1 Verständnisfrage: keine neue Disk auf ZFS anlegen / Korrekt gemounted? gelöst gewesen.

-------------------------
meine jetzige storage.cfg
dir: local
path /var/lib/vz
content iso,vztmpl,backup

lvmthin: local-lvm
thinpool data
vgname pve
content images,rootdir

zfspool: local-zfs
pool rpool/data
content rootdir,images
sparse 1

zfspool: Cruical_2TB
pool Cruical_2TB
content images,rootdir
mountpoint /Cruical_2TB
sparse 0

-------------------------
zpool status
pool: Cruical_2TB
state: ONLINE
scan: scrub repaired 0B in 00:25:13 with 0 errors on Sun Jun 8 00:49:14 2025
config:

NAME STATE READ WRITE CKSUM
Cruical_2TB ONLINE 0 0 0
wwn-0x500a0751e4d3ba00-part1 ONLINE 0 0 0

errors: No known data errors

pool: rpool
state: ONLINE
scan: scrub repaired 0B in 02:15:38 with 0 errors on Sun Jun 8 02:39:40 2025
config:

NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
nvme-CT4000P3SSD8_2336E8745DC2-part3 ONLINE 0 0 0
nvme-CT4000P3SSD8_2331E86828CB-part3 ONLINE 0 0 0

errors: No known data errors
-------------------------
zpool list -v
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
Cruical_2TB 1.81T 751G 1.08T - - 0% 40% 1.00x ONLINE -
wwn-0x500a0751e4d3ba00-part1 1.82T 751G 1.08T - - 0% 40.5% - ONLINE
rpool 3.62T 1.76T 1.87T - - 37% 48% 1.00x ONLINE -
mirror-0 3.62T 1.76T 1.87T - - 37% 48.5% - ONLINE
nvme-CT4000P3SSD8_2336E8745DC2-part3 3.64T - - - - - - - ONLINE
nvme-CT4000P3SSD8_2331E86828CB-part3 3.64T - - - - - - - ONLINE
-------------------------
Bitte mal den Namen des ZFS Pools Cricial.. anpassen
Sorry, sitze auf der LEitung - was meinst du damit?
bzw: Wo hab ich ihn falsch geschrieben?

-------------------------

1751276497856.png

-------------------------
pvesm status
Name Type Status Total Used Available %
Cruical_2TB zfspool active 1885863936 1765771248 120092688 93.63%
local dir active 1869713024 28611584 1841101440 1.53%
local-lvm lvmthin active 365760512 0 365760512 0.00%
local-zfs zfspool active 3733374020 1892272476 1841101544 50.69%

gruss & Dank vorab
Ferengie

PS: ich hoffe, ich konnte es verständlich erklären ...
 
Last edited: