[SOLVED] Freien Platz auf sda für weitere Partition nutzen

May 13, 2025
8
1
3
Hallo,

ich bin Anfänger in Sachen Proxmox - wir steigen gerade von VMWare um.
Ich habe einen vorhandenen Server mit 2 Raid-Systemen.
Ein Raid mit SSD-Platen und ein zweites mit SATA.
Auf dem ersten Raid habe ich Proxmox installiert. Leider habe ich jetzt noch
sehr viel ungenutzten Platz, den ich natürlich gerne nutzen möchte.
Local-vm wollte ich eigentlich nur für Isos etc. nutzen und einen weiteren LVM-Thin für die VMs anlegen.
Wenn ich aber ein weites LVM-Thin anlegen möchte bekomme ich den freien Platz nicht angezeigt.
Da die SSDs alle 1TB groß sind, möchte ich eigentlich nicht zwei davon ausschließlich für Proxmox "verschwenden".
Anbei der Auszug:
Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk
├─sda1                              8:1    0  1007K  0 part
├─sda2                              8:2    0     1G  0 part
└─sda3                              8:3    0   7.9T  0 part
  ├─pve-swap                      252:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:1    0   128G  0 lvm  /
  ├─pve-data_tmeta                252:2    0   2.6G  0 lvm 
  │ └─pve-data                    252:6    0 250.9G  0 lvm 
  └─pve-data_tdata                252:3    0 250.9G  0 lvm 
    └─pve-data                    252:6    0 250.9G  0 lvm 
sdb                                 8:16   0   8.2T  0 disk
├─PVE2_VM_SATA-PVE2_VM_SATA_tmeta 252:4    0  15.9G  0 lvm 
│ └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm 
└─PVE2_VM_SATA-PVE2_VM_SATA_tdata 252:5    0   8.2T  0 lvm 
  └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm

Kann mit vielleicht jemand helfen, wie ich den freien Platz als "sda4" angelegt bekomme?
Oder habe ich da grundsätzlich einen Gedankenfehler?

Wie gesagt bin noch relativ neu und versuche mich gerade mittels Workshops und Doku einzuarbeiten.

Mit Dank und bestem Gruss
Ralf
 
Hallo Ralf,

verstehe ich dich richtig, dass du den verbleibenden Platz auf der Partition sda3 für lvm-thin (klassischerweise für vm images mit Snapshot-Feature) verwenden möchtest?

Bei einer Standard-Installation solltest du die beiden Storages 'local' (LV 'pve/root', bei dir 128G, als Directory Storage [0]) und 'local-lvm' (LV 'pve/data', LVM-thin Storage [1] hier anscheinend nur 256G) haben. Kann es sein, dass du 'maxvz' während der Installation auf 256G gesetzt hast [2]?

Könntest du die Ausgaben der folgenden Befehle posten?
Code:
cat /etc/pve/storage.cfg
lvs
vgs
pvs

Du solltest keine zusätzliche Partition benötigen -- du könntest einfach das LV 'data' vergrößern um den Speicher verfügbar zu machen [3].

[0] https://pve.proxmox.com/pve-docs/pve-admin-guide.html#storage_directory
[1] https://pve.proxmox.com/pve-docs/pve-admin-guide.html#storage_lvmthin
[2] https://pve.proxmox.com/pve-docs/pve-admin-guide.html#advanced_lvm_options
[3] https://linux.die.net/man/8/lvextend
 
Hallo Daniel,

danke, dass Du Dir die Zeit nimmst.

Ja ich habe bei der Installation bewusst LV 'pve/data' auf 256GB reduziert, da ich gerne eine weitere Partition für die VMs erstellen wollte.
Hintergrund: Ein zweite (neue) Maschine, durch einen Dienstleister erstellt, wurde klassisch konfiguriert. Also ein Satz Platten für das BS und data
und ein zweiter Satz Platten für die VMs.
Mein Gedanke war, das bei dieser Maschine ebenso zu machen, nur wollte ich die großen SSDs nicht "verschwenden" indem ich sie in zwei Raids anlege.
Daher der Wunsch, die restlichen 7TB als weitere LVM-Thin anzulegen. der übrige Platz wird aber leider nicht als frei angezeigt.
Anbei noch die Auszüge (nicht wundern, da sind auch die Datenquellen der zweiten Maschine (pve1) mit drin, da ich sie inzwischen als Cluster zusammengefügt habe). Es geht hier um die STW-PVE2:
Code:
root@STW-PVE2:~# cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content backup,iso,vztmpl

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir
        nodes STW-PVE2

lvm: PVE1_VM_Storage
        vgname PVE1_VM_Storage
        content rootdir,images
        nodes pve1
        shared 0

lvmthin: PVE2_VM_SATA
        thinpool PVE2_VM_SATA
        vgname PVE2_VM_SATA
        content images,rootdir
        nodes STW-PVE2

-----------------------------------

root@STW-PVE2:~# lvs
  LV           VG           Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  PVE2_VM_SATA PVE2_VM_SATA twi-a-tz--   <8.16t             0.00   0.31                           
  data         pve          twi-a-tz-- <250.88g             0.00   0.66                           
  root         pve          -wi-ao----  128.00g                                                   
  swap         pve          -wi-ao----    8.00g 

-----------------------------------

root@STW-PVE2:~# vgs
  VG           #PV #LV #SN Attr   VSize  VFree 
  PVE2_VM_SATA   1   1   0 wz--n- <8.19t 376.00m
  pve            1   3   0 wz--n- <7.86t  <7.48t

-----------------------------------

root@STW-PVE2:~# pvs
  PV         VG           Fmt  Attr PSize  PFree 
  /dev/sda3  pve          lvm2 a--  <7.86t  <7.48t
  /dev/sdb   PVE2_VM_SATA lvm2 a--  <8.19t 376.00m

Mit Dank und Gruss
Ralf
 
Hallo Ralph,

ich hab die Situation gerade im Lab durchgespielt und glaube, dass ich deine Situation jetzt verstehe. Per GUI lässt sich in der Tat ein neues LVM-thin nur auf einer freien Platte/Partition anlegen. Das hatte ich bei meiner Erstantwort nicht bedacht.

Du kannst das aber per Shell machen (mit Befehlen `lvcreate` zum Erstellen und `lvconvert` zum Umwandeln in LVM-thin -- siehe [0]). Ein so erstelltes LV findest du dann in Datacenter->$NODENAME->LVM-thin, und kannst es mittels Datacenter->Storage->Add->LVM-thin in deine Storagekonfiguration einbinden.

Ob es hingegen praktisch ist, dann 2 separate LVM-thin Pools (eines mit 256G [local-lvm] und ein neues mit dem verbleibenden Speicher von ~6.5T) auf dem physisch selben RAID zu haben, musst du selber entscheiden.

Es besteht auch die Möglichkeit, deinem aktuellen lvm-thin pool 'data' (eingebunden als 'local-lvm') den verbleibenden Speicher zuzuordnen (dazu könntest du einen Befehl in der Art von `lvextend -l +100%FREE pve/data` verwenden [1]). Damit sollte dann dein 'local-lvm' gute 7T für VM Disks zur Verfügung haben.

Ich hoffe das ist hilfreich!

[0] https://pve.proxmox.com/pve-docs/pve-admin-guide.html#storage_lvmthin
[1] https://linux.die.net/man/8/lvextend
 
  • Like
Reactions: news
Hallo Daniel,

Entschuldige bitte nochmal meine Nachfrage.

Ich habe das jetzt versucht einzustellen mit folgenden Befehlen:
Code:
lvcreate -L 7.5T -n PVE2_VM_SSD pve

lvconvert --type thin-pool pve/PVE2_VM_SSD

Danach habe ich folgende Ausgabe:
Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk
├─sda1                              8:1    0  1007K  0 part
├─sda2                              8:2    0     1G  0 part
└─sda3                              8:3    0   7.9T  0 part
  ├─pve-swap                      252:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:1    0   128G  0 lvm  /
  ├─pve-data_tmeta                252:2    0   2.6G  0 lvm 
  │ └─pve-data-tpool              252:6    0 250.9G  0 lvm 
  │   ├─pve-data                  252:8    0 250.9G  1 lvm 
  │   └─pve-PVE2_VM_SSD           252:9    0   7.5T  0 lvm 
  └─pve-data_tdata                252:3    0 250.9G  0 lvm 
    └─pve-data-tpool              252:6    0 250.9G  0 lvm 
      ├─pve-data                  252:8    0 250.9G  1 lvm 
      └─pve-PVE2_VM_SSD           252:9    0   7.5T  0 lvm 
sdb                                 8:16   0   8.2T  0 disk
├─PVE2_VM_SATA-PVE2_VM_SATA_tmeta 252:4    0  15.9G  0 lvm 
│ └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm 
└─PVE2_VM_SATA-PVE2_VM_SATA_tdata 252:5    0   8.2T  0 lvm

Ist das so korrekt?
Ich finde den Speicher zwar unter dem Knoten unter Disks/LVM-Thin, kann ihn aber nicht im Datacenter hinzufügen.

Mit Dank und Gruss
Ralf
 
Gehe zu Datacenter > Storage > Add > LVM-Thin. Wähle dort dann pve als Volume group und PVE2_VM_SSD als Thin Pool.
Wenn das nicht funktioniert teile bitte ein Bild von dem Add Dialog und die Ausgabe von lvs.
 
Hallo Ralf,

Das schaut gut aus -- ich kann der Antwort von @Impact nichts hinzufügen...

Viel Erfolg!
 
Anbei die Ausgabe von lvs:
Code:
root@STW-PVE2:~# lvs
  LV           VG           Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  PVE2_VM_SATA PVE2_VM_SATA twi-a-tz--   <8.16t             0.00   0.31                           
  PVE2_VM_SSD  pve          twi-a-tz--    6.50t             0.00   10.43                           
  data         pve          twi-aotz-- <250.88g             0.00   0.66                           
  root         pve          -wi-ao----  128.00g                                                   
  swap         pve          -wi-ao----    8.00g



Leider habe ich nicht die Möglichkeit PVE2_VM_SSD auszuwählen.

Mit Dank und Gruss
Ralf
 
Ich habe das mal in einer virtuellen PVE Umgebung simuliert und es funktioniert.
Bash:
# lvs
  LV            VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  PVE2_VM_SSD   pve twi-a-tz--  22.00g             0.00   10.50
  data          pve twi-aotz--  11.80g             15.91  1.64
  root          pve -wi-ao---- <13.81g
  swap          pve -wi-ao----  <3.88g

1748871912373.png

Probier mal vgchange -ay pve und lade das GUI erneut. Ansonsten kannst du auch einen reboot probieren.
 
Hallo Ralf,

Wenn ich mir deine lsblk-Angaben anschaue, dürfte da etwas mehr passiert sein, als nur (`lvcreate -L 7.5T -n PVE2_VM_SSD pve` und `lvconvert --type thin-pool pve/PVE2_VM_SSD`). Ich habe das vorher übersehen.

Vor den Änderungen sah dein lsblk-output so aus (ohne dem 2. pool jetzt):
Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk
├─sda1                              8:1    0  1007K  0 part
├─sda2                              8:2    0     1G  0 part
└─sda3                              8:3    0   7.9T  0 part
  ├─pve-swap                      252:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:1    0   128G  0 lvm  /
  ├─pve-data_tmeta                252:2    0   2.6G  0 lvm
  │ └─pve-data                    252:6    0 250.9G  0 lvm
  └─pve-data_tdata                252:3    0 250.9G  0 lvm
    └─pve-data                    252:6    0 250.9G  0 lvm

So weit so gut. Jetzt am Ende haben wir eine Art von genestetem System:
Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk
├─sda1                              8:1    0  1007K  0 part
├─sda2                              8:2    0     1G  0 part
└─sda3                              8:3    0   7.9T  0 part
  ├─pve-swap                      252:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:1    0   128G  0 lvm  /
  ├─pve-data_tmeta                252:2    0   2.6G  0 lvm
  │ └─pve-data-tpool              252:6    0 250.9G  0 lvm
  │   ├─pve-data                  252:8    0 250.9G  1 lvm
  │   └─pve-PVE2_VM_SSD           252:9    0   7.5T  0 lvm
  └─pve-data_tdata                252:3    0 250.9G  0 lvm
    └─pve-data-tpool              252:6    0 250.9G  0 lvm
      ├─pve-data                  252:8    0 250.9G  1 lvm
      └─pve-PVE2_VM_SSD           252:9    0   7.5T  0 lvm

Hast du eine Idee wo `pve-data-tpool` herkommt?

Wenn ich (hier auf einem kleinen System) mit einer clean-slate beginne (so wie dein erster `lsblk` output):
Code:
root@pvelvm02:~# lsblk
NAME               MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
sda                  8:0    0  500G  0 disk
├─sda1               8:1    0 1007K  0 part
├─sda2               8:2    0    1G  0 part
└─sda3               8:3    0  499G  0 part
  ├─pve-swap       252:0    0    4G  0 lvm  [SWAP]
  ├─pve-root       252:1    0   96G  0 lvm  /
  ├─pve-data_tmeta 252:2    0  100M  0 lvm
  │ └─pve-data     252:4    0  100G  0 lvm
  └─pve-data_tdata 252:3    0  100G  0 lvm
    └─pve-data     252:4    0  100G  0 lvm
sr0                 11:0    1  1.5G  0 rom 
root@pvelvm02:~# vgs
  VG  #PV #LV #SN Attr   VSize    VFree 
  pve   1   3   0 wz--n- <499.00g 298.80g

Und danach den 2. thin-pool mit den von dir angeführten Befehle erstelle:
Code:
root@pvelvm02:~# lvcreate -L 290G -n data02 pve
  Logical volume "data02" created.
root@pvelvm02:~# lvconvert --type thin-pool pve/data02
  Thin pool volume with chunk size 256.00 KiB can address at most 63.50 TiB of data.
  WARNING: Converting pve/data02 to thin pool's data volume with metadata wiping.
  THIS WILL DESTROY CONTENT OF LOGICAL VOLUME (filesystem etc.)
Do you really want to convert pve/data02? [y/n]: y
  Converted pve/data02 to thin pool.
root@pvelvm02:~# lvs
  LV     VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data   pve twi-a-tz-- 100.00g             0.00   10.43                          
  data02 pve twi-a-tz-- 290.00g             0.00   10.42                          
  root   pve -wi-ao----  96.00g                                                  
  swap   pve -wi-ao----   4.00g

Kommt der folgende `lsblk` output zustande:
Code:
root@pvelvm02:~# lsblk
NAME                 MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
sda                    8:0    0  500G  0 disk
├─sda1                 8:1    0 1007K  0 part
├─sda2                 8:2    0    1G  0 part
└─sda3                 8:3    0  499G  0 part
  ├─pve-swap         252:0    0    4G  0 lvm  [SWAP]
  ├─pve-root         252:1    0   96G  0 lvm  /
  ├─pve-data_tmeta   252:2    0  100M  0 lvm
  │ └─pve-data       252:4    0  100G  0 lvm
  ├─pve-data_tdata   252:3    0  100G  0 lvm
  │ └─pve-data       252:4    0  100G  0 lvm
  ├─pve-data02_tmeta 252:5    0   76M  0 lvm
  │ └─pve-data02     252:7    0  290G  0 lvm
  └─pve-data02_tdata 252:6    0  290G  0 lvm
    └─pve-data02     252:7    0  290G  0 lvm
sr0                   11:0    1  1.5G  0 rom


Das lässt sich dann fein reinhängen.

Eventuell sind da noch andere Befehle dazwischen gewesen -- könntest du einmal deine Shell-History überprüfen (`history`)?

Eigenartig erscheint mir auch, dass sich die Größen von 'PVE2_VM_SSD' im `lsblk` output und im `lvs` output so so stark unterscheiden, aber das kann die Konsequenz aus dem sein, was man in `lsblk` sieht.
 
Last edited:
Hallo Daniel,

hier mal die Befehle, seit dem Prozess. Ich hatte zwischenzeitlich das ganze falsch
angelegt und wieder gelöscht. Vielleicht liegt es daran.
Die Punkte 18 bis 29 waren der Versuch das ganze wieder zu löschen.
Punkt 32 war dann die Speicherangabe zu groß.
Code:
   14  lvs
   15  vgs
   16  pvs
   17  lsblk
   18  lvcreate -n PVE2_VM_SSD -V 7.5T pve/data
   19  lsblk
   20  lvremove PVE2_VM_SSD
   21  lvremove pve/data/PVE2_VM_SSD
   22  cat /etc/pve/storage.cfg
   23  lsblk
   24  lvremove pve-PVE2_VM_SSD
   25  lvremove pve/data/pve-PVE2_VM_SSD
   26  lvremove pve-PVE2_VM_SSD
   27  lvdisplay
   28  lvremove PVE2_VM_SSD
   29  lvremove /dev/pve/PVE2_VM_SSD
   30  lvdisplay
   31  lsblk
   32  lvcreate -L 7.5T -n PVE2_VM_SSD pve
   33  lvcreate -L 6.5T -n PVE2_VM_SSD pve
   34  lsblk
   35  lvconvert --type thin-pool pve/PVE2_VM_SSD
   36  lsblk
   37  lvs
   38  vgchange -ay pve
   39  history

Vielleicht sollte ich das Ganze noch einmal sauber aufsetzen bevor ich damit produktiv gehe?
Ich möchte mir schon sicher sein, bevor ich da mit Produktiv-Servern drauf arbeite.

Kann man die Subskription irgendwie retten? ich habe das Ding jetzt schon mehrfach neu aufgesetzt.
Da gibt es bestimmt bei der Aktivierung Schwierigkeiten.

Heute Morgen ließ sich das übrigens einhängen. Ob es eine weile gedauert hat oder weil ich es vom PVE2-Knoten
aus probiert habe, weiß ich nicht genau.

Wenn aber eine sauber Neuinstallation besser wäre, ist ja zum Glück keine große Sache.

Mit Dank und Gruss
Ralf
 
Last edited:
Ich habe die Maschine jetzt noch einmal sauber aufgesetzt und es funktioniert.
Jetzt sieht das ganz so aus:

Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk 
├─sda1                              8:1    0  1007K  0 part 
├─sda2                              8:2    0     1G  0 part 
└─sda3                              8:3    0   7.9T  0 part 
  ├─pve-swap                      252:1    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:3    0    96G  0 lvm  /
  ├─pve-data_tmeta                252:4    0   2.6G  0 lvm  
  │ └─pve-data                    252:6    0 250.9G  0 lvm  
  ├─pve-data_tdata                252:5    0 250.9G  0 lvm  
  │ └─pve-data                    252:6    0 250.9G  0 lvm  
  ├─pve-PVE2_VM_SSD_tmeta         252:8    0   120M  0 lvm  
  │ └─pve-PVE2_VM_SSD             252:10   0   7.5T  0 lvm  
  └─pve-PVE2_VM_SSD_tdata         252:9    0   7.5T  0 lvm  
    └─pve-PVE2_VM_SSD             252:10   0   7.5T  0 lvm  
sdb                                 8:16   0   8.2T  0 disk 
├─PVE2_VM_SATA-PVE2_VM_SATA_tmeta 252:0    0  15.9G  0 lvm  
│ └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm  
└─PVE2_VM_SATA-PVE2_VM_SATA_tdata 252:2    0   8.2T  0 lvm  
  └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm

Wenn ich die Maschine in den Cluster genommen und eine Maschine migriert habe, ergibt sich folgendes Bild:

Code:
root@STW-PVE2:~# lsblk
NAME                              MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda                                 8:0    0   7.9T  0 disk
├─sda1                              8:1    0  1007K  0 part
├─sda2                              8:2    0     1G  0 part
└─sda3                              8:3    0   7.9T  0 part
  ├─pve-swap                      252:1    0     8G  0 lvm  [SWAP]
  ├─pve-root                      252:3    0    96G  0 lvm  /
  ├─pve-data_tmeta                252:4    0   2.6G  0 lvm 
  │ └─pve-data                    252:6    0 250.9G  0 lvm 
  ├─pve-data_tdata                252:5    0 250.9G  0 lvm 
  │ └─pve-data                    252:6    0 250.9G  0 lvm 
  ├─pve-PVE2_VM_SSD_tmeta         252:8    0   120M  0 lvm 
  │ └─pve-PVE2_VM_SSD-tpool       252:10   0   7.5T  0 lvm 
  │   ├─pve-PVE2_VM_SSD           252:11   0   7.5T  1 lvm 
  │   ├─pve-vm--200--disk--0      252:12   0     4M  0 lvm 
  │   ├─pve-vm--200--disk--1      252:13   0     4M  0 lvm 
  │   └─pve-vm--200--disk--2      252:14   0   100G  0 lvm 
  └─pve-PVE2_VM_SSD_tdata         252:9    0   7.5T  0 lvm 
    └─pve-PVE2_VM_SSD-tpool       252:10   0   7.5T  0 lvm 
      ├─pve-PVE2_VM_SSD           252:11   0   7.5T  1 lvm 
      ├─pve-vm--200--disk--0      252:12   0     4M  0 lvm 
      ├─pve-vm--200--disk--1      252:13   0     4M  0 lvm 
      └─pve-vm--200--disk--2      252:14   0   100G  0 lvm 
sdb                                 8:16   0   8.2T  0 disk
├─PVE2_VM_SATA-PVE2_VM_SATA_tmeta 252:0    0  15.9G  0 lvm 
│ └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm 
└─PVE2_VM_SATA-PVE2_VM_SATA_tdata 252:2    0   8.2T  0 lvm 
  └─PVE2_VM_SATA-PVE2_VM_SATA     252:7    0   8.2T  0 lvm

Ob das jetzt mit dem Cluster zu tun hat?

Nach einer Migration auf die SATA-Partition das gleich Bild - tpool wird angelegt:

Code:
sdb                                   8:16   0   8.2T  0 disk
├─PVE2_VM_SATA-PVE2_VM_SATA_tmeta   252:0    0  15.9G  0 lvm 
│ └─PVE2_VM_SATA-PVE2_VM_SATA-tpool 252:7    0   8.2T  0 lvm 
│   ├─PVE2_VM_SATA-PVE2_VM_SATA     252:15   0   8.2T  1 lvm 
│   └─PVE2_VM_SATA-vm--220--disk--0 252:16   0   100G  0 lvm 
└─PVE2_VM_SATA-PVE2_VM_SATA_tdata   252:2    0   8.2T  0 lvm 
  └─PVE2_VM_SATA-PVE2_VM_SATA-tpool 252:7    0   8.2T  0 lvm 
    ├─PVE2_VM_SATA-PVE2_VM_SATA     252:15   0   8.2T  1 lvm 
    └─PVE2_VM_SATA-vm--220--disk--0 252:16   0   100G  0 lvm

Vielen Dank noch einmal an alle!
Es ist nicht selbstverständlich, dass sich Menschen so viel Mühe machen um anderen zu helfen.

Wenn nichts dagegen spricht kann der Thread geschlossen werden - oder kann ich das selbst?

Nochmals vielen Dank und Gruss
Ralf
 
Hallo Ralf,

super, dass dein Setup jetzt sitzt, und danke für's Teilen!

Das Bild das wir jetzt hier sehen hat weniger mit dem Cluster, sondern mit dem Platzieren von VM disks in den thin-pool zu tun. Das gleiche Bild entsteht auch, wenn du direkt eine VM auf deinem Host auf einem LVM thin pool erstellst.

in der Zeile 18 von vorher hast du ein thin LV -- quasi wie eine VM disk -- in den thin pool data gesetzt, wodurch dann die spezielle Situation entstanden ist.

Du könntest diesen thread auf 'Solved' setzen -- potentiell ist er hilfreich für andere User, und kann dann in diesem Zusammenhang leichter gefunden werden.