Proxmox Umzug auf größere SSD klappt nicht

Wendy2702

Member
May 1, 2020
25
3
8
Hallo Foren Gemeinde,

ich bin über das iobroker Forum zu Proxmox gekommen und nutze es seit ca. 4 Wochen.

Jetzt ist meine SSD mit 120GB etwas zu klein und ich möchte meine Installation gerne auf eine neu 1TB SSD umziehen.

Dazu habe ich mit der aktuellen Clonezilla Version ein Image meiner 120GB SSD Erstellt und versucht dieses Image auf der neuen SSD wieder herzustellen.

Leider schlägt das am Ende mit dieser Meldung fehl:

Code:
Restoring the VG config...    
Consider using the option --force to restore Volume Group pve with thin volumes.  
Restore failed.

Wenn ich trotzdem versuche zu booten kommt das:

Code:
error: disk 'lvmid/xxxxxxxxxxxxxxxxxxxxxxxxxxxx' not found
Entering rescue mode...
grub rescue>

bei der Abfrage der gefundenen partitionen mit ls bekomme ich immer die Ausgabe: unkown filesystem

Mein Aktuelle Installation sieht so aus:

Proxmox 6.1.8

1588337392817.png

motioneye (pve), nextcloud (pve) sind einzelne ZFS HDD's
omv (pve) ein ZFS pool aus zwei HDD's

Code:
lsblk -f
NAME FSTYPE LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOI                            NT
sda
├─sda1
│
├─sda2
│    vfat         BD8B-913C
└─sda3
     LVM2_m       AlzIN1-zwCK-qlQc-e1JA-SXjQ-SBXP-zaBi32
  ├─pve-swap
  │  swap         4ef548a3-e334-460c-ac1c-5aae53f2bdf4                  [SWAP]
  ├─pve-root
  │  ext4         d9e280af-6fa1-4422-9776-1c2750538a1f        3G    84% /
  ├─pve-data_tmeta
  │
  │ └─pve-data-tpool
  │
  │   ├─pve-data
  │   │
  │   ├─pve-vm--101--disk--0
  │   │  ext4         94c605d9-52d9-4bee-919c-e0154a00f6ad
  │   ├─pve-vm--103--disk--0
  │   │  ext4         05a2bda1-b725-4036-ab0c-05857e62d21a
  │   ├─pve-vm--105--disk--0
  │   │
  │   ├─pve-vm--100--disk--0
  │   │  ext4         e09ce78b-c2c7-4f2b-aece-e885fa3adb30
  │   ├─pve-vm--104--disk--0
  │   │  ext4         6fac9ae7-efbe-4018-a5e8-4960d1de68b2
  │   └─pve-vm--102--disk--0
  │
  └─pve-data_tdata

    └─pve-data-tpool

      ├─pve-data
      │
      ├─pve-vm--101--disk--0
      │  ext4         94c605d9-52d9-4bee-919c-e0154a00f6ad
      ├─pve-vm--103--disk--0
      │  ext4         05a2bda1-b725-4036-ab0c-05857e62d21a
      ├─pve-vm--105--disk--0
      │
      ├─pve-vm--100--disk--0
      │  ext4         e09ce78b-c2c7-4f2b-aece-e885fa3adb30
      ├─pve-vm--104--disk--0
      │  ext4         6fac9ae7-efbe-4018-a5e8-4960d1de68b2
      └─pve-vm--102--disk--0

sdb
├─sdb1
│    zfs_me omv   17276545645704761212
└─sdb9

sdc
├─sdc1
│    zfs_me omv   17276545645704761212
└─sdc9

sdd
├─sdd1
│    zfs_me motioneye
│                 10652509401441743766
└─sdd9

sde
├─sde1
│    zfs_me nextcloud
│                 4144683045819838609
└─sde9

sdf
└─sdf1
     vfat         2736-60C3
zd0
└─zd0p1
     ext4   data  55daa547-2c9e-416e-b961-afceb10b9b5b
root@pve:~#

Alle VM's und Container habe ich gesichert.

Wenn ich auf der neuen 1TB SSD Proxmox neu installiere kann ich die HDD's nicht hinzufügen da Sie mir nicht als Verfügbar angezeigt werden.

Geht das erst nachdem ich die VM's/Container wieder hergestellt habe?

Wie sieht die einfachste oder beste Vorgehensweise aus um den Umzug zu bewerkstelligen?

Danke für eure Hilfe
 
Last edited:
Hi,

Wenn du Backups der VM's/ CT's hast, dann installiere auf der neuen SSD einmal neu.
Dann bindest du dein Backup-Storage ein und stellst die VM's/CT's wieder her.
Achte darauf, das etwaige CD's (ISO) auch gesichert sind, damit du die auch auf dem neuen System hast.

Alternativ geht auch das Klonen (wofür irgend eine bootbare Distri reicht), das aber mit dd. Danach mit gparted die Partitionen anpassen und danach die LVM's vergrößern.
Dauert aber länger und hat mehr Fallstricke wie neu installieren.
 
  • Like
Reactions: fireon
Danke für dein Antwort.

Mit neu installieren habe ich probiert aber wie Eingangs geschrieben werden mir die Laufwerke nicht mehr zum einbinden in der GUI angeboten.
 
Nur zum Verständnis:
Welche Laufwerke werden dir nnicht mehr Angeboten?

Sorry, hab mal deine Screenshots angesehen (hätte ich gleich tun sollen)

Hast du nur die SSD neu installiert und die Festplatten mit ZFS so belassen, wie sie sind?
 
Ja, nur die SSD neu da auf den anderen Daten liegen.

Die anderen erscheinen dann nicht in der GUI zum einbinden.
 
Habe es jetzt geschafft mit clonezille und dd copy das System auf die neu SSD zu bringen. Habe dabei die Option "-k1" verwendet:

///NOTE/// By deafult, Clonezilla will clone the "same" size of source disk to target disk. i.e. in this example, only 8 GB will be cloned to target disk, so the rest of 12 GB on the destination disk will be unallocated. If you want to make use all of the target disk size, remember to enter "Expert" mode and choose option "-k1".

Allerdings verstehe ich jetzt nicht warum mir im GUI für SDA3 weiterhin die 111GB angezeigt werden:

1588505885446.png

Mir auf commandline ebene aber für SDA3 931GB angezeigt werden:

Code:
root@pve:~# lsblk
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                            8:0    0 931.5G  0 disk
├─sda1                         8:1    0   8.2M  0 part
├─sda2                         8:2    0   512M  0 part
└─sda3                         8:3    0   931G  0 part
  ├─pve-swap                 253:0    0     8G  0 lvm  [SWAP]
  ├─pve-root                 253:1    0  27.8G  0 lvm  /
  ├─pve-data_tmeta           253:2    0     1G  0 lvm
  │ └─pve-data-tpool         253:4    0  59.7G  0 lvm
  │   ├─pve-data             253:5    0  59.7G  0 lvm
  │   ├─pve-vm--101--disk--0 253:6    0    30G  0 lvm
  │   ├─pve-vm--103--disk--0 253:7    0     8G  0 lvm
  │   ├─pve-vm--105--disk--0 253:8    0     8G  0 lvm
  │   ├─pve-vm--100--disk--0 253:9    0     8G  0 lvm
  │   ├─pve-vm--104--disk--0 253:10   0     8G  0 lvm
  │   └─pve-vm--102--disk--0 253:11   0    32G  0 lvm
  └─pve-data_tdata           253:3    0  59.7G  0 lvm
    └─pve-data-tpool         253:4    0  59.7G  0 lvm
      ├─pve-data             253:5    0  59.7G  0 lvm
      ├─pve-vm--101--disk--0 253:6    0    30G  0 lvm
      ├─pve-vm--103--disk--0 253:7    0     8G  0 lvm
      ├─pve-vm--105--disk--0 253:8    0     8G  0 lvm
      ├─pve-vm--100--disk--0 253:9    0     8G  0 lvm
      ├─pve-vm--104--disk--0 253:10   0     8G  0 lvm
      └─pve-vm--102--disk--0 253:11   0    32G  0 lvm

Habe ich jetzt einen Denkfehler oder muss ich noch irgendetwas anderes machen?
 
Danke.

Sorry für die wahrscheinlich dumme Frage aber muss ich in jedem fall eine zusätzliche Partition erstellen wenn ich hier:

Code:
root@pve:~# vgdisplay pve
  --- Volume group ---
  VG Name               pve
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  71
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                9
  Open LV               8
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <111.29 GiB
  PE Size               4.00 MiB
  Total PE              28489
  Alloc PE / Size       24938 / 97.41 GiB
  Free  PE / Size       3551 / 13.87 GiB
  VG UUID               4cwYSF-Vxlf-5pC4-KEId-leGq-Fgjz-nvjdNO

Den Wert für Free PE / Size erhöhen will oder geht das auch anders? Geht für mich aus dem Link nicht so hervor.
 
Kann doch heute weitermachen :)

Habe es geschafft mein data und root zu vergrößern:

Code:
 --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                XOvvBK-EH8A-FoXr-P6ED-fjpV-5Nx9-yN2QKt
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Status              available
  # open                 1
  LV Size                127.75 GiB
  Current LE             32704
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                v1kLba-7m8o-NEdW-wNGK-aUJj-DjRF-IzXdNy
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 7
  LV Size                559.66 GiB
  Allocated pool data    8.44%
  Allocated metadata     3.68%
  Current LE             143274
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4

Für data sehe ich das auch in der GUI:

1588608751024.png

Und ich dachte root wäre "local (pve), oder?

Hier sehe ich allerdings keine Änderung oder wie kann ich dass denn vergrößern?

1588608846048.png

Bin für jeden hinweis dankbar.
 
Musste noch das machen:

Code:
resize2fs -p /dev/pve/root

Jetzt schaut es so aus:

1588611635989.png

In Summe:

dd copy mit clonezilla im expertenmodus mit Option "-k1" (Partitionen erweitern)

Danach diese 4 Befehle da ich nicht direkt die ganze Platte "verbrauchen" wollte:

Code:
pvresize /dev/sda3
lvextend -L+100G /dev/pve/root
resize2fs -p /dev/pve/root
lvextend -L+500G /dev/pve/data

Vorher:

Code:
root@pve:~# vgs
  VG  #PV #LV #SN Attr   VSize    VFree
  pve   1   9   0 wz--n- <111.29g 13.87g
root@pve:~# pvs
  PV         VG  Fmt  Attr PSize    PFree
  /dev/sda3  pve lvm2 a--  <111.29g 13.87g
root@pve:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                cgNzYU-XWYn-mvqL-42le-H1Bc-nl7S-0J2mT8
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:23 +0100
  LV Status              available
  # open                 2
  LV Size                8.00 GiB
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                XOvvBK-EH8A-FoXr-P6ED-fjpV-5Nx9-yN2QKt
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Status              available
  # open                 1
  LV Size                27.75 GiB
  Current LE             7104
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                v1kLba-7m8o-NEdW-wNGK-aUJj-DjRF-IzXdNy
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 7
  LV Size                59.66 GiB
  Allocated pool data    79.20%
  Allocated metadata     3.48%
  Current LE             15274
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4


Nachher:

Code:
root@pve:~# vgs
  VG  #PV #LV #SN Attr   VSize   VFree
  pve   1   9   0 wz--n- 931.00g <233.59g
root@pve:~# pvs
  PV         VG  Fmt  Attr PSize   PFree
  /dev/sda3  pve lvm2 a--  931.00g <233.59g
root@pve:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                cgNzYU-XWYn-mvqL-42le-H1Bc-nl7S-0J2mT8
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:23 +0100
  LV Status              available
  # open                 2
  LV Size                8.00 GiB
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                XOvvBK-EH8A-FoXr-P6ED-fjpV-5Nx9-yN2QKt
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Status              available
  # open                 1
  LV Size                127.75 GiB
  Current LE             32704
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                v1kLba-7m8o-NEdW-wNGK-aUJj-DjRF-IzXdNy
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-03-22 12:28:24 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 7
  LV Size                559.66 GiB
  Allocated pool data    8.44%
  Allocated metadata     3.68%
  Current LE             143274
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4
 
  • Like
Reactions: hollishi and gmed
Top, dann hat ja alles geklappt.
Und ohne zusätzliche Partition, somit blieb "alles beim Alten"
 
Ich hänge mich hier mal mit an. Meine 120GB SSD wird nun auch etwas knapp. Ich würde gerne auf eine 240er oder 500er upgraden. Könnte ich das ganze auch am PC klonen mit z.b. Partition Magic oder Macrium Reflect ? alte und neue SSD an den PC stöpslen und eben über das Programm die Disk auf die neuere klonen ?

Zumindest mit Windows Disk's klappt das wunderbar.
 
Vermutlich geht das, wenn Partition Magic oder Macrium Reflect einfach nur 1-zu-1-Kopien auf Blockebene machen. Mit dd und lvm Befehlen per CLI wäre aber auch nicht so wirklich das Problem am anderen PC. Kann man ja alles machen wenn man dort vom Linux-Live-Stick bootet.
 
N`abend Freunde...ich sitze hier mit offenem Mund und staune und friere vor Angst ;-))...weil das ganz oben von Wendy2702 beschriebene Szenario habe ich hier eins zu eins auch. Und bin über die Netzsuche genau hier gelandet. Jetzt muss ich gestehen, dass ihr hier offensichtlich alle recht gut mit Linux umgehen könnt, ich leider fast gar nicht. Habe den Proxmox zwar aufgesetzt bekommen und meine virtuellen Maschinen/Container laufen auch alle, aber: Das hat nur wie Malen nach Zahlen dank diverser Tipps im Netz so geklappt. Die Frage nach dem WIE, wenn denn so ein Proxmox-Server mal "repariert" werden muss, die Platte getauscht oder vergrößert werden muss, hatte ich mir leider ähnlich komfortabel vorgestellt, wie die Einrichtung von Proxmox. Jetzt lese ich hier etwas von "dd" und "Clonezilla" und verstehe nur Bahnhof...was natürlich nichts an meiner Situation verbessert. Der Versuch, mich in Konsolenbefehlen (per man dd) einzulesen, lässt mir einen Schauer nach dem Anderen über den Rücken laufen...Schließlich läuft mein (zu kleiner) Proxmox richtig gut und das sollte ja auch so bleiben. Also kann mir jetzt bitte entweder jemand einen anderen Tipp zum klonen geben(Acronis hab ich probiert, geht nicht) oder einer von Euch könnte mir bitte die Situation einmal so beschreiben, dass ich sie in der Konsole von Proxmox zum funktionieren bringen könnte???
Wobei mir immer noch nicht ganz einleuchten will, wie Proxmox (Ich halte es für ein geniales System !) diese Situation nicht mit Bordmitteln lösen könnte...?!
Also, genug gejammert...meine Frau sagt schon:" Musst du dich in deinem Alter(61) auch mit solchem Kram beschäftigen!"

Machts gut und habt Dank, schon auch fürs lesen

Schlumpel
 
Last edited:
Es ist nie zu spät, sich Neuem zu widmen und man lernt ja schließlich nie aus! :)
Das ganze in der Konsole von Proxmox selbst zu machen dürfte etwas schwierig werden, da du ja die Systemplatte selbst kopieren musst. Idealerweise hängst du die Platte in einen anderen Rechner und kopierst sie dort mittels Clonezilla oder dd auf die neue Platte. Danach startest von der neuen Platte und vergrößerst die Partitionen entsprechend. Es ist wirklich nicht die einfachste Operation, um mit Linux umgehen zu lernen ... ;)
Du könntest stattdessen Proxmox auf der neuen Platte neu installieren und die VMs via Backup/Restore auf den neuen Server umziehen.
 
Ich danke Dir ph0x...werde Deinen Vorschlag via Backup/Restore morgen mal versuchen und anschließend berichten. Heute Nacht laufen die Backups noch mal und dann: Hals und Beinbruch und danke für Deinen Post :))

Gute Nacht
Schlumpel
 
Meinen Gruß in die Runde und die Info, dass natürlich das Backup und Restore NICHT so funktioniert haben, wie ich es mir gewünscht hätte. Kurze Erklärung: Der Proxmox wurde "blind" nach Anleitung im Netz eingerichtet. Ich verstehe nur grob, was da passiert. Es existieren 2 VM Disks und 2 Container. Laut Anleitung wurden für diese 4 Maschinen 1 Iso-Image deb 10.9 und 1 Container Template debian 10 auf den Proxmox hochgeladen und zur Installation der jeweils 2 VMs und 2 Container benutzt. Diese debian Abbilder liegen in local(pve) und werden offensichtlich NICHT beim Backup aus dem Rechenzentrum mit gesichert. Wenn ich jetzt meinen Proxmox auf eine leere SSD installiere, meinen Backup-Server einbinde, finde ich meine Backups der 4 Maschinen, kann diese auch "zurückspielen"...bekomme aber beim starten der Maschinen den Fehler "Iso deb...." nicht gefunden. Schau ich dann unter local(pve) nach, sind dort auch keine ISO/Templates vorhanden...?! Der Menüpunkt "Backups" in diesem Zweig ist leer und lässt sich auch in der Original Installation NICHT aktivieren??? Und damit klemmt das Ganze...Hat einer von Euch einen Tipp??
Denn das im Original eingerichtete Backup unter "Rechenzentrum" lässt mich bei Auswahl "Alle" sichern hoffen, dass es eben auch alles sichert...aber irgendwas schein ich zu übersehen...

Danke an die Truppe

VG Schlumpel
 

Attachments

  • Proxmox Rechenzentrum.png
    Proxmox Rechenzentrum.png
    63.3 KB · Views: 19
  • Backup.png
    Backup.png
    40.7 KB · Views: 18

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!