Disk Config Files bei Neuinstallation vorhandener Mount-Points in Bereich "Disks"

dodec

New Member
Apr 8, 2025
4
0
1
Hallo zusammen,

meine Boot-Festplatte hat den Geist aufgegeben, ich konnte allerdings noch ein par Sachen retten:

Diese habe ich soweit auch in der Neuinstallation übernommen -> mir werden die Volumen und VMs angezeigt.
Allerdings werden die Festplatten nicht automatisch gemountet (außer jene die ich damals im fstab hinterlegte).
Konkret hatte ich über die GUI -> Datacenter->PVE->Disks (LVM,Directory) meine Platten eingebunden.
Wo werden diese Configs gespeichert? Dann kann ich versuchen über die defekte Festplatte die configs zu speichern.
Denn ohne diese sind die Festplatten nicht mehr in den LvM oder Directory hinterlegt und so habe ich leider keine LXC/VM die laufen könnten.

Was mir die GUI anbietet sind nur Wipe und Neueinrichten, das muss und möchte ich wegen Datenverlust vermeiden.
Zumal es eine Möglichkeit geben sollte bei Neuinstall auch die Festplatten wieder gleich einzubinden.

PS: Auf der ausgefallenen Festplatte lief nur die Proxmox-Umgebung, auf den Anderen waren die VM/LXC-Disks sowie Daten und BackUps.
 
Die Mount-Points, welche über die Proxmox-GUI erstellt werden sind hier
/etc/systemd/system/mnt-pve-SSD.mount
zu finden.
Allerdings scheint das bloße kopieren und einfügen nicht auszureichen.
So bleiben die services immer deaktiviert selbst wenn man diese manuell aktiviert.
 
Und weiter geht es:
ich habe nun den weg gewählt alle Einträge selbst zu erstellen. Für die Festplatten dann wie folgt:

https://blog.netnerds.net/2022/03/add-existing-storage-proxmox-without-wiping-it-first/

manuell die einträge in /etc/systemd/system/xyz.mount anlegen und ausfüllen
dann überprüfen ob die einträge über systemctl übernommen wurden
jetzt den "service" aktivieren und neustarten.
Bei mir hat dies geklappt. Allerdings habe ich vorher die /etc/pve/storage.cfg mit den vorheringen Einträgen überschrieben.

Nun fehlen mir noch die erstellten Benutzer samt Richtlinien - dafür sind die VM/LXC wieder da.


Letzteres:
Nach langem Suchen fand ich heraus, dass die linux Umgebung standardmäßig eine swappiness von 60 hat. Das ist in Kombi mit billigen SSD natürlich nicht langlebig. Das Reduzieren brachte bei allerdings ein hohes I/O Delay.
 
Last edited: