Laufwerk einbauen/hinzufügen - VMs und CT verschieben

Selter

Member
Nov 20, 2020
28
0
21
48
Hallo zusammen,

ich bin Proxmox-Anfänger und betreibe Proxmox auf einem Intel NUC. Aktuell ist intern eine SSD verbaut (sda), auf der Proxmox und auch alle VM und CT liegen.
sdb ist eine externe SSD für Backups und sdc ist als Laufwerk für Openmediavault vorgesehen.

1678431696442.png

Intern ist noch ein M.2 Slot frei, da würde ich gern eine 250 GB nvme ssd m.2 einbauen.
Dahin möchte ich dann alle VM und CT von sda verschieben.

Wie geht man da vor?
M2 einbauen - und dann?

Vielen Dank
Selter
 
Hallo Selter,

in etwa gehst du da so vor:
  1. NVME einbauen
  2. In der GUI unter "Disks" die neue Disk auswählen, und dann "Initialize Disk with GPT" auswählen. Falls die Disk vorher schon andersweitig verwendet wurde, dann kannst du vorher noch "Wipe Disk" auswählen
  3. Dann gehst du links entweder auf "ZFS", "LVM thin", "LVM" oder "Directory", je nachdem, welche Art von Storage du auf der neuen Disk einrichten willst. Für einen Vergleich der einzelnen Storage-Typen kannst du das Manual konsultieren [1].
  4. Oben dann auf "Create <type>" auswählen und den Dialog bestätigen
  5. Wenn das erledigt ist, kannst du deine VM auswählen und dort unter Hardware die Disk auswählen. Dort dann oben auf "Disk Actions > Move Storage" gehen und dort den neuen Storage auswählen
Kann man auch alles über die Command Line machen, hier einfach die Dokumentation konsultieren ;) [2].


[1] https://pve.proxmox.com/pve-docs/pve-admin-guide.html#chapter_storage
[2] https://pve.proxmox.com/pve-docs/index.html
 
Hallo Lukas,

danke für die ausführliche Anleitung. Es scheint so, als ob mein Problem schon früher eintritt.
Ich habe die NVME eingebaut, aber das System startet nicht mehr von der SSD. Kann es sein, dass nun versucht wird von der NVME zu booten, die allerdings leer ist?
 
Hallo Lukas,

danke für die ausführliche Anleitung. Es scheint so, als ob mein Problem schon früher eintritt.
Ich habe die NVME eingebaut, aber das System startet nicht mehr von der SSD. Kann es sein, dass nun versucht wird von der NVME zu booten, die allerdings leer ist?
Das könnte schon sein. Einfach ins BIOS gehen und die Boot-Reihenfolge checken und ggf. ändern ;) .
 
Hat das auch Einfluss in Proxmox auf die Laufwerke? Wird dann durch die NVME aus sda dann sdb?
 
Hat das auch Einfluss in Proxmox auf die Laufwerke? Wird dann durch die NVME aus sda dann sdb?
Die Boot-Reihenfolge hat im normalfall keinen Einfluss auf die Benennung der Laufwerke. Allerdings kann es allgemein passieren, dass beim hinzufügen neuer Laufwerke sich die enumeration ändert (z.B. /dev/sda wird zu /dev/sdb, das neue Laufwerk wird zu /dev/sda) - deswegen sollte man zB. in der /etc/fstab immer auf auf Labels oder UUIDs zurückgreifen.

In deinem Fall sollte das aber nicht passiert sein, da du ein NVMe-Laufwerk eingebaut hast. Dieses ist dann z.B. /dev/nvme0n1 und damit in einem eigenen Schema was die Benennung angeht.

Was siehst du denn auf dem Bildschirm, wenn du Proxmox VE booten willst?
 
Scheint, als ob die MVME als sdc erkannt wird. sdb ist eine per USB angeschlossene externe SSD (als Backup-Laufwerk). Aber auch wenn das backup-Laufwerk angeschlossen ist, gibt es die Meldung dass Backup nicht gemounted werden kann.

1678797128404.png


1678797061190.png

Wenn ich die M2 wieder ausbaue und normal starte funktioniert es wieder.
Allerdings muss auch immer die 2TB USB-HDD angeschlossen sein.
 
Hi, dann ist es keine NVMe sondern eine SATA M.2
Hast du die USB Platte mal an einem anderen USB Port gehabt? Er findet das Filesystem nicht.
 
Die USB-SSD habe ich eigentlich an dem selben Port angeschlossen, wie immer.
Der Unterschied ist nur, dass die M2 eingebaut ist und die 2TB USB-HDD nicht angeschlossen ist.

Aber die Fehlermeldung bezieht sich auf die USB-SSD (backup), oder?

Mit lsblk werden die Laufwerke angezeigt.

sda = interne 120 GB SSD (Proxmox-System)
sdb = externe 250 GB SSD (backup)
sdc = interne 250 GB M2 (leer, als FAT formatiert)
 
Da muss ich nochmal umbauen und dann nachsehen - habe erstmal wieder das ursprüngliche Setup in Betrieb.
 
Ich habe jetzt in der fehlerfreien Konfiguration mit nur 2 Laufwerken (interne SSD und externe Backup-SSD) gestartet und lsblk aufgerufen:

Offenbar ist die Backup-SSD 238.5 G groß und nur als "sdb" gemounted (ohne weitere Partitionen).

1679489458198.png

1679489822451.png


D.h. ich habe den Screenshot in Post #7 falsch interpretiert: die M2 ist 223.6 G groß und wurde dort als sdb gemounted, was dann wahrscheinlich auch die Fehlermeldung bzgl. nicht gefundenem Filesystem erklärt.

Wenn die M2 eingebaut wird, drängelt diese sich also als "sdb" dazwischen.

Die Frage ist nun, was muss ich einstellen, um vor dem Umbau die externe SSD als "sdc" zu mounten?
Reicht es, die fstab wie folgt anzupassen?
/dev/sdc /backup ext4 defaults 0 0
 
Grundsätzlich würde ich empfehlen, in der /etc/fstab immer Labels oder UUIDs zu verwenden. Die UUID einer Partitions kannst du mit blkid herausfinden

Diese dann einfach in die fstab eintragen, allerdings ohne die Anführungszeichen (so wie auch schon der Eintrag für /boot/efi eingetragen ist).

Zum Beispiel:
Code:
 UUID=xxxxxxx /backup ext4 defaults 0 0
 
Prima - jetzt läuft die M2.

Ich komme aber leider nicht mit dem nächsten Schritt weiter. Der Button "Initialize Disk with GPT" ist ausgegraut ...

1679569333274.png
 
Prima - jetzt läuft die M2.

Ich komme aber leider nicht mit dem nächsten Schritt weiter. Der Button "Initialize Disk with GPT" ist ausgegraut ...
Initialisieren kann man nur leere Disks, einfach mal die alte fat Partition löschen.
 
  • Like
Reactions: Lukas Wagner
Ich habe inzwischen 3 Container per Backup und Restore auf die neue M2 verschoben.

Warum wird bei Usage 100% angezeigt - angeblich sind von 240GB nur noch 125 MB frei ...

1679598391079.png

Das kann aber nicht sein, da im Summary von "dataM2" eine Belegung von ca. 13 GB angezeigt wird, was realistisch ist.


1679598976145.png


1679598987019.png


Code:
root@nuc:~# lsblk
NAME                           MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                              8:0    0 111.8G  0 disk
├─sda1                           8:1    0  1007K  0 part
├─sda2                           8:2    0   512M  0 part /boot/efi
└─sda3                           8:3    0 111.3G  0 part
  ├─pve-swap                   253:0    0     7G  0 lvm  [SWAP]
  ├─pve-root                   253:1    0  27.8G  0 lvm  /
  ├─pve-data_tmeta             253:2    0     1G  0 lvm
  │ └─pve-data-tpool           253:4    0  60.7G  0 lvm
  │   ├─pve-data               253:5    0  60.7G  0 lvm
  │   ├─pve-vm--250--disk--0   253:6    0    16G  0 lvm
  │   ├─pve-vm--252--disk--0   253:8    0     8G  0 lvm
  │   ├─pve-vm--100--disk--0   253:10   0     8G  0 lvm
  │   └─pve-vm--254--disk--0   253:11   0     8G  0 lvm
  └─pve-data_tdata             253:3    0  60.7G  0 lvm
    └─pve-data-tpool           253:4    0  60.7G  0 lvm
      ├─pve-data               253:5    0  60.7G  0 lvm
      ├─pve-vm--250--disk--0   253:6    0    16G  0 lvm
      ├─pve-vm--252--disk--0   253:8    0     8G  0 lvm
      ├─pve-vm--100--disk--0   253:10   0     8G  0 lvm
      └─pve-vm--254--disk--0   253:11   0     8G  0 lvm
sdb                              8:16   0 223.6G  0 disk
├─dataM2-dataM2_tmeta          253:13   0   2.2G  0 lvm
│ └─dataM2-dataM2-tpool        253:15   0   219G  0 lvm
│   ├─dataM2-vm--2510--disk--0 253:9    0     8G  0 lvm
│   ├─dataM2-dataM2            253:16   0   219G  0 lvm
│   ├─dataM2-vm--2530--disk--0 253:17   0     8G  0 lvm
│   └─dataM2-vm--2500--disk--0 253:18   0    16G  0 lvm
└─dataM2-dataM2_tdata          253:14   0   219G  0 lvm
  └─dataM2-dataM2-tpool        253:15   0   219G  0 lvm
    ├─dataM2-vm--2510--disk--0 253:9    0     8G  0 lvm
    ├─dataM2-dataM2            253:16   0   219G  0 lvm
    ├─dataM2-vm--2530--disk--0 253:17   0     8G  0 lvm
    └─dataM2-vm--2500--disk--0 253:18   0    16G  0 lvm
sdc                              8:32   0 238.5G  0 disk /backup
 
Last edited:
Hier noch weitere Statuus:

Code:
root@nuc:~# pvesm status
Name             Type     Status           Total            Used       Available        %
backupSSD         dir     active       245085812        49299576       183266900   20.12%
dataM2        lvmthin     active       229609472        12582599       217026872    5.48%
local             dir     active        28510260         6758316        20280664   23.70%
local-lvm     lvmthin     active        63610880        25870544        37740335   40.67%
root@nuc:~# pvs
  PV         VG     Fmt  Attr PSize    PFree
  /dev/sda3  pve    lvm2 a--  <111.29g  13.87g
  /dev/sdb   dataM2 lvm2 a--  <223.57g 120.00m
root@nuc:~# vgs
  VG     #PV #LV #SN Attr   VSize    VFree
  dataM2   1   4   0 wz--n- <223.57g 120.00m
  pve      1   7   0 wz--n- <111.29g  13.87g
root@nuc:~# lvs
  LV             VG     Attr       LSize   Pool   Origin Data%  Meta%  Move Log Cpy%Sync Convert
  dataM2         dataM2 twi-aotz-- 218.97g               5.48   1.00                          
  vm-2500-disk-0 dataM2 Vwi-aotz--  16.00g dataM2        49.88                                
  vm-2510-disk-0 dataM2 Vwi-aotz--   8.00g dataM2        36.48                                
  vm-2530-disk-0 dataM2 Vwi-a-tz--   8.00g dataM2        13.70                                
  data           pve    twi-aotz--  60.66g               40.67  2.72                          
  root           pve    -wi-ao----  27.75g                                                    
  swap           pve    -wi-ao----   7.00g                                                    
  vm-100-disk-0  pve    Vwi-aotz--   8.00g data          76.06                                
  vm-250-disk-0  pve    Vwi-a-tz--  16.00g data          56.16                                
  vm-252-disk-0  pve    Vwi-aotz--   8.00g data          96.47                                
  vm-254-disk-0  pve    Vwi-aotz--   8.00g data          23.53                                
root@nuc:~#

pvs und vgs zeigt auch hier nur 120m freien Speicher auf "dataM2"
 
Last edited:
Ist doch alle in Ordnung.
Du hast ne Disk und der Platz ist zu 100% auf 4 Logical Volumes verteilt.
Wie voll deine Volumes sind, siehst du bei Datastore.

Alle wie man es erwarten würde.
 
Wenn du wissen willst wie voll die SSD ist musst du entweder mit lvs bei der Spalte "Data%" gucken (bei dir 5,48% für dataM2) oder im "LVM-Thin" Tab im webUI. Der "LVM" Tab sagt fir nur wieviel von der Disk deiner VG zugeordnet ist. Und da will man ja nach Möglichkeit die volle Disk für die VG nutzen, weil man sonst ja Platz verwendet, den man sonst nicht für LVs nutzen könnte.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!