[SOLVED] zvol - No such file or directory - Proxmox 8.3

hackmann

Renowned Member
Jan 6, 2013
230
13
83
Guten morgen,

mir ist heute morgen aufgefallen, das das zvol auf dem Proxmox 8.3 nicht vorhanden ist.
Code:
ls: cannot access '/dev/zvol': No such file or directory

Auf dem System läuft ein Container

Code:
NAME                                            USED  AVAIL  REFER  MOUNTPOINT
rpool                                          3.37G   212G   104K  /rpool
rpool/ROOT                                     3.20G   212G    96K  /rpool/ROOT
rpool/ROOT/pve-1                               3.20G   212G  3.20G  /
rpool/data                                       96K   212G    96K  /rpool/data
rpool/var-lib-vz                                117M   212G   117M  /var/lib/vz
seagate4TB                                      258G  3.26T    96K  /seagate4TB
seagate4TB/encryptionserver                     257G  3.26T   208K  /seagate4TB/encryptionserver
seagate4TB/encryptionserver/subvol-100-disk-0   257G   423G   257G  /seagate4TB/encryptionserver/subvol-100-disk-0
seagate4TB/restore                              720M  3.26T   257G  /seagate4TB/restore
-----------------------------------------------------------------------------------------------------
Der Container wurde von einem Backup eingespielt auf ein verschlüsseltes Storage

Code:
zfspool: secure
        pool seagate4TB/encryptionserver
        content rootdir,images
        mountpoint /seagate4TB/encryptionserver
        sparse 1

Code:
root@pvetest:/etc/pve# modinfo zfs | grep version
version:        2.2.6-pve1
srcversion:     E73D89DD66290F65E0A536D
vermagic:       6.8.12-4-pve SMP preempt mod_unload modversions

ich habe noch 5 weitere Proxmox Server 8.2.2 , aber auf denen ist das zvol vorhanden?.

Bevor ich auf die Suche gehe, wollte ich mal nachfragen, woran das liegen könnte?

danke
 
Laut zfs list gibts keine volume (zvol) datasets. Alle haben einen mountpoint. Somit gibt es keinen Bedarf, die volume datasets in /dev/zvol/{pool}/... darzustellen.

Haben die anderen Proxmox VE Server VMs am ZFS liegen? Dann haben sie zvols. Die hier hat nur einen CT, welcher auf ZFS ein "normales" Filesystem Dataset ist.
 
Hallo Aaron,

meine Installationen sind immer alle gleich. Ich erstelle einen Storage ZFS/Thinprovision. Darin installiere ich die VMs.
Ich ging davon aus, dass dann automatisch ein zvol angelegt wird.

Das viel mir auf, weil ich einen Snapshot"zvol" mounten wollte,

Code:
zfs list -t snap
rpool/samba/vm-400-disk-1@zfs-auto-snap_frequent-2024-11-11-1137

zfs clone rpool/samba/vm-400-disk-1@zfs-auto-snap_frequent-2024-11-11-1137 rpool/sambarestore

ls /dev/zvol/rpool/
eichwald  samba  sambarestore  sambarestore-part1

mount /dev/zvol/rpool/sambarestore-part1  /mnt/sambadaten
 
ls /mnt/sambadaten/
daten   lost+found  'Neuer Ordner'   recycle   

umount /dev/zvol/rpool/clone-part1  /mnt/sambadaten

Jetzt schaute ich mal auf meinen Hauptserver, da liegen auch nicht alle VMs in einem zvol?

Code:
root@hauptserver:/dev/zvol/rpool# ls
baculaserver  sshlogin  ucs

------------------

root@hauptserver:/dev/zvol/rpool# pct list
VMID       Status     Lock         Name
120        stopped                 experpsy
121        running                 experpsy
200        running                 experinfo
300        running                 checkmk

--------------------

root@hauptserver:/dev/zvol/rpool# qm list
      VMID NAME                 STATUS     MEM(MB)    BOOTDISK(GB) PID
       110 bacula.exper.intranet-250 running    10784             50.00 3312702
       130 ucs.exper.intranet-252 running    4192             400.00 3151551

Ich bin jetzt etwas verunsichert. Wann wird ein ZVOL angelegt und wann nicht? Wie geschrieben, meine Installationen sind alle die gleichen.
Erst ein ZFS Storage mit Thinprovision und dann kommen die VMS rein.

Einmal habe ich ein zvol und einmal nicht.?

danke für deine Antwort
 
Du hast VMs (qm list) und LXC Container (pct list). VMs verwenden ZVOLs für die Diskimages. Bei Containern werden "normale" Dateisystemdatasets verwendet. Die werden ganz gewöhnlich gemounted. Den Mountpoint siehst du in der letzten Spalte im zfs list Output.

Du siehst bei ZFS den Unterschied auch am Namen. VMs haben vm-{vmid}-disk-X, Container subvol-{vmid}-disk-X als Name für das Dataset. Das ist eine Besonderheit des ZFS Storageplugins. Bei den meisten anderen Storageplugins gibt es keine Unterscheidung!

Ich hoffe das klärt die Situation auf. Ansonsten schick bitte mal ein zfs list vom Haupt- und dem neuen Server, damit ich da direkt vergleichen kann :)
 
danke, da muss ich nochmal einlesen.

hier mal mein Hauptserver

Code:
rpool                                     1.49T  2.92T   120K  /rpool
rpool/ROOT                                10.4G  2.92T    96K  /rpool/ROOT
rpool/ROOT/pve-1                          10.4G  2.92T  10.4G  /
rpool/baculaserver                        6.86G  2.92T    96K  /rpool/baculaserver
rpool/baculaserver/vm-110-disk-0          6.86G  2.92T  6.20G  -
rpool/baculastorage                        764G  2.92T   764G  /rpool/baculastorage
rpool/checkmk                             2.73G  2.92T    96K  /rpool/checkmk
rpool/checkmk/subvol-300-disk-0           2.73G  57.3G  2.73G  /rpool/checkmk/subvol-300-disk-0
rpool/data                                  96K  2.92T    96K  /rpool/data
rpool/experpsy                             446G  2.92T    96K  /rpool/experpsy
rpool/experpsy/subvol-120-disk-0           446G   424G   256G  /rpool/experpsy/subvol-120-disk-0
rpool/experpsy/subvol-120-disk-0-restore  73.4M  2.92T   364G  /rpool/experpsy/subvol-120-disk-0-restore
rpool/expersecure                          268G  2.92T   200K  /rpool/expersecure
rpool/expersecure/subvol-121-disk-0        268G   424G   256G  /rpool/expersecure/subvol-121-disk-0
rpool/sshlogin                             152K  2.92T    96K  /rpool/sshlogin
rpool/sshlogin/vm-140-disk-0                56K  2.92T    56K  -
rpool/typo3                               1.97G  2.92T    96K  /rpool/typo3
rpool/typo3/subvol-200-disk-0             1.97G  38.0G  1.97G  /rpool/typo3/subvol-200-disk-0
rpool/ucs                                 21.9G  2.92T    96K  /rpool/ucs
rpool/ucs/vm-130-disk-0                   21.9G  2.92T  15.6G  -

wenn es kein zvol ist, dann geht das mounten ja noch schneller!
 
Mein Browser ist abgesürtzt. Hier der ganze text!. ;)

danke, da muss ich mich nochmal einlesen.

hier mal mein Hauptserver

Code:
rpool                                     1.49T  2.92T   120K  /rpool
rpool/ROOT                                10.4G  2.92T    96K  /rpool/ROOT
rpool/ROOT/pve-1                          10.4G  2.92T  10.4G  /
rpool/baculaserver                        6.86G  2.92T    96K  /rpool/baculaserver
rpool/baculaserver/vm-110-disk-0          6.86G  2.92T  6.20G  -
rpool/baculastorage                        764G  2.92T   764G  /rpool/baculastorage
rpool/checkmk                             2.73G  2.92T    96K  /rpool/checkmk
rpool/checkmk/subvol-300-disk-0           2.73G  57.3G  2.73G  /rpool/checkmk/subvol-300-disk-0
rpool/data                                  96K  2.92T    96K  /rpool/data
rpool/experpsy                             446G  2.92T    96K  /rpool/experpsy
rpool/experpsy/subvol-120-disk-0           446G   424G   256G  /rpool/experpsy/subvol-120-disk-0
rpool/experpsy/subvol-120-disk-0-restore  73.4M  2.92T   364G  /rpool/experpsy/subvol-120-disk-0-restore
rpool/expersecure                          268G  2.92T   200K  /rpool/expersecure
rpool/expersecure/subvol-121-disk-0        268G   424G   256G  /rpool/expersecure/subvol-121-disk-0
rpool/sshlogin                             152K  2.92T    96K  /rpool/sshlogin
rpool/sshlogin/vm-140-disk-0                56K  2.92T    56K  -
rpool/typo3                               1.97G  2.92T    96K  /rpool/typo3
rpool/typo3/subvol-200-disk-0             1.97G  38.0G  1.97G  /rpool/typo3/subvol-200-disk-0
rpool/ucs                                 21.9G  2.92T    96K  /rpool/ucs
rpool/ucs/vm-130-disk-0                   21.9G  2.92T  15.6G  -

wenn es kein zvol ist, dann geht das mounten ja noch schneller!

zfs clone seagate4TB/encryptionserver/subvol-100-disk-0@nextcloud seagate4TB/encryptionserver/testheute

ls -la

root@pvetest:/# ls /seagate4TB/encryptionserver/testheute
backups bin boot dev etc home lib lib64 media mnt opt proc root run sbin srv sys tmp usr var

--
Ich habe mich Monate mit Bacula beschäftigt und mit ZFS geht das wirklich echt supper gut.

Nochmals danke für deine Antwort, da muss ich in Zukunft darauf achten.

liebe grüsse
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!