Wie kann ich alte LVs löschen?

Strizz

Member
Jul 27, 2020
24
2
8
77
Hallo,
der Befehl lvs führt auf meinem Rechner zu folgendem Ergebnis:

Code:
root@proxmox:~# lvs
  LV            VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi---tz-- <338.36g                                                   
  root          pve -wi-ao----   96.00g                                                   
  swap          pve -wi-ao----    8.00g                                                   
  vm-101-disk-0 pve Vwi---tz--   16.00g data                                               
  vm-103-disk-0 pve Vwi---tz--   16.00g data                                               
  vm-104-disk-0 pve Vwi---tz--   20.00g data                                               
  vm-106-disk-0 pve Vwi---tz--  100.00g data                                               
  vm-107-disk-0 pve Vwi---tz--   20.00g data

Alle VMs existieren jedoch schon lange nicht mehr und ich möchte sie daher löschen. Sie 'existieren nicht mehr' heißt, dass ich sie in der der Weboberfläche nicht mehr sehen kann.

Code:
root@proxmox:~# cat /etc/pve/.vmlist
{
"version": 2,
"ids": {
"104": { "node": "proxmox", "type": "lxc", "version": 4 },
"110": { "node": "proxmox", "type": "lxc", "version": 2 },
"109": { "node": "proxmox", "type": "lxc", "version": 7 },
"102": { "node": "proxmox", "type": "qemu", "version": 1 },
"108": { "node": "proxmox", "type": "lxc", "version": 9 },
"101": { "node": "proxmox", "type": "lxc", "version": 5 },
"120": { "node": "proxmox", "type": "lxc", "version": 12 },
"100": { "node": "proxmox", "type": "lxc", "version": 10 },
"106": { "node": "proxmox", "type": "lxc", "version": 3 },
"112": { "node": "proxmox", "type": "lxc", "version": 8 },
"150": { "node": "proxmox", "type": "lxc", "version": 11 }}

}
root@pro

Wie kann ich sie über das CLI löschen? Der Befehl "qm destroy <ID-Nummer>" funktioniert leider nicht. Da bekomme ich die Meldung, dass die entsprechende config-Datei nicht gefunden werden kann.

Kann mir jemand helfen, diese Überbleibsel aus alten Tagen zu löschen?

Strizz
 

Strizz

Member
Jul 27, 2020
24
2
8
77
Guck dir mal den "lvremove" Befehl an. Z.B. lvremove /dev/pve/vm-101-disk-0.
Der Befehl ergibt bei mir eine Fehlermeldung:

Code:
root@proxmox:/# lvremove /dev/pve/vm-101-disk-0
  Thin pool pve-data-tpool (253:4) transaction_id is 197, while expected 199.
  Failed to update pool pve/data.

Andere Idee?
 

nunner

Proxmox Staff Member
Staff member
Sep 1, 2022
98
20
8
Sind die disks denn noch zB im storage view im GUI zu sehen? Also, local-lvm (bzw. der Ort wo die Disks liegen) -> VM Disks. Von dort sollten sie sich auch via "Remove" entfernen lassen. Übers CLI alternativ mit pvesm probieren.
 

Strizz

Member
Jul 27, 2020
24
2
8
77
@nunner: Wie ich oben geschrieben habe: Die VMs sind in der GUI nicht zu sehen. Sie tauchen auch nach dem Befehl ‚vmlist‘ nicht auf. Ich sehe nur nach Eingabe von ‚lvs‘, dass da noch Reste alter VMs sind.
Würde gerne ‚pvesm‘ ausprobieren, bin mir aber total unsicher, wie ich den Befehl anwenden muss. Wäre
pvesm free vm-101-disk-0
korrekt?

Strizz
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
8,372
1,662
174
Code:
  Thin pool pve-data-tpool (253:4) transaction_id is 197, while expected 199.

diese fehlermeldung klingt so, als waere etwas mit dem thin pool nicht in ordnung (oder nicht in ordnung gewesen). ist der thin pool oder das metadata volume vollgelaufen gewesen?

pvesm free laesst sich auch ueber die GUI machen -> storage auswaehlen, dann bei VM Disks/CT Volumes auswaehlen und Remove Knopf druecken (funktioniert nur, wenn kein Gast mit der entsprechenden ID mehr existiert).
 

Strizz

Member
Jul 27, 2020
24
2
8
77
pvesm free laesst sich auch ueber die GUI machen -> storage auswaehlen, dann bei VM Disks/CT Volumes auswaehlen und Remove Knopf druecken (funktioniert nur, wenn kein Gast mit der entsprechenden ID mehr existiert).
Wie schon schrieb: Ich sehe diese VMs ja nicht in der GUI. Kann sie also auch nicht auswählen. Wenn ich in der Storage-Ansicht VM Disk auswähle gibt es folgende Fehlermeldung:

activating LV 'pve/data' failed: Thin pool pve-data-tpool (253:4) transaction_id is 197, while expected 199. (500)

Wenn ich local-lvm auswähle, erhalte ich in der Übersicht die info:

Aktiviert: Ja
Aktiv: Nein
Inhalt: Disk-Image, Container
Typ: LVM-Thin
Auslastung: Nicht verfügbar

Falls weitere Infos über meine Disks weiterhelfen, hier eine Übersicht des vorhandenen Speichers:


Storage.JPG

Wäre für weitere Tips sehr dankbar, da meine eigenen Fähigkeiten hier nur sehr begrenzt sind.:)

Strizz
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
8,372
1,662
174
das klingt leider so als waere der thin pool gar nicht verwendbar im moment.. daher nochmal die frage:

ist der thin pool oder das metadata volume vollgelaufen gewesen?

oder ist das system in letzter zeit mal gecrasht und seit dem ist das problem vorhanden?
 

Strizz

Member
Jul 27, 2020
24
2
8
77
das klingt leider so als waere der thin pool gar nicht verwendbar im moment.. daher nochmal die frage:

ist der thin pool oder das metadata volume vollgelaufen gewesen?

oder ist das system in letzter zeit mal gecrasht und seit dem ist das problem vorhanden?

Seitdem ich von vers. 6 auf 7 umgestiegen bin, gab es bei mir keine Probleme. Ich habe nie entsprechende Fehlermeldung enthalten. Allerdings hat mir der Umstieg Probleme gemacht: Ich habe den Rechner völlig neu aufgesetzt unf anschließend meine Backups installiert. Das hat bei allen LXCs problemlos funktioniert. Die VMs ließen sich dagegen - bis auf eine - nicht mehr zurückspielen. Ich denke, alle VMs, die ich bei dem Befehl lvs sehe, sind Reste dieser Recovery-Versuche.

Einen System-crash gab es definitiv nicht. Aber - wie ich oben schrieb - LVM ist aktiv, aber nicht aktiviert. Frage: Wie kann ich das aktivieren? Habe hier im Forum leider nichts dazu gefunden.

Strizz
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
8,372
1,662
174
hast du schon versucht, den host zu rebooten? falls das nichts bringt, bitte mal journalctl -b nach dem reboot machen und hier posten!
 

Strizz

Member
Jul 27, 2020
24
2
8
77
@fabian: Reboot hat nichts gebracht: Löschen der alten VMs weiter nicht möglich, da sie nicht gefunden werden. Anbei das Ergebnis von journalctl -b. Da es für ein Zitat zu lang ist, füge ich es als Text-Datei bei.

Hoffe, das hilft weiter. Ich selber bin da leider als nur interessierte Laie außen vor.

Strizz
 

Attachments

  • bootjournal.txt
    102.7 KB · Views: 2

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
8,372
1,662
174
okay - das klingt tatsaechlich nach kaputtem LVM thin. kannst du noch lvs -a output posten?
 

Strizz

Member
Jul 27, 2020
24
2
8
77
okay - das klingt tatsaechlich nach kaputtem LVM thin. kannst du noch lvs -a output posten?
lvs -a ergibt folgendes:

Code:
root@proxmox:~# lvs -a
  LV              VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data            pve twi---tz-- <338.36g                                                   
  [data_tdata]    pve Twi------- <338.36g                                                   
  [data_tmeta]    pve ewi-------    4.45g                                                   
  [lvol1_pmspare] pve ewi-------    4.45g                                                   
  root            pve -wi-ao----   96.00g                                                   
  swap            pve -wi-ao----    8.00g                                                   
  vm-101-disk-0   pve Vwi---tz--   16.00g data                                               
  vm-103-disk-0   pve Vwi---tz--   16.00g data                                               
  vm-104-disk-0   pve Vwi---tz--   20.00g data                                               
  vm-106-disk-0   pve Vwi---tz--  100.00g data                                               
  vm-107-disk-0   pve Vwi---tz--   20.00g data

Strizz
 

fabian

Proxmox Staff Member
Staff member
Jan 7, 2016
8,372
1,662
174
okay.. ich wuerde vorschlagen das PV (vermutlich /dev/nvme0n1p3 ? pvs sollte auskunft geben) mit dd zu sichern (auchtung, braucht ~450G platz!) und dann mittels thin_dump/thin_check/thin_repair zu versuchen, die metadaten zu reparieren.
 

Strizz

Member
Jul 27, 2020
24
2
8
77
dann mittels thin_dump/thin_check/thin_repair zu versuchen, die metadaten zu reparieren.
Sorry, aber ich muss schon wieder fragen:
Wenn ich den thin_dump-Befehl benutze, also z.B, thin_dump /dev/nvme0n1p3 -r
erhalte ich als Ergebnis:
syscall 'open' failed: Device or resource busy
Note: you cannot run this tool with these options on live metadata.


Wie kann ich denn die Metaden für die Prüfung abschalten. Tut mir leid, aber da bin ich dann doch etwa überfordert. Kannst du mir trotzdem einen Hinweis geben?

Strizz
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get your own in 60 seconds.

Buy now!