[SOLVED] Startvorgang dauert sehr lange LVM-thin

showiproute

Well-Known Member
Mar 11, 2020
615
32
48
36
Austria
Hallo,

ich bin nun von ZFS auf LVM-thin zwecks Perfomance (ZFS lief bei mir nicht performant) umgestiegen.

Leider muss ich nun feststellen, dass beim Startvorgang die Logical Volumes ewig benötigen, bis die von Proxmox erkannt und genutzt werden können.


Dementsprechend dauert auch der Startvorgang der einzelnen VMs.
 
Hallo,
kann es sein, dass es an den Disken/Hardware liegt und nicht an ZFS/LVM? Gibt es irgendwas auffälliges in den Logs z.B. /var/log/syslog?
 
Hallo Fabian,

mir ist damals aufgefallen, dass ich über die PVE GUI die Storages gelöscht haben und am Server dann via zpool destroy xxx die jeweiligen Pools gelöscht habe, allerdings lief im Hintergrund immer noch ein Importdienst -> /etc/systemd/system/zfs-import.target.wants

Dort waren noch alle Storagedevices hinterlegt.
Ich habe die manuell herausgelöscht und seit dem Zeitpunkt läuft eigentlich alles wieder normal.
Die ZFS Performance "Einbrüche" habe ich mittlerweile auch schon eruiert und hierfür auch einen kurze Forumspost hinterlassen.

Möchtest du das noch kurz analysieren oder soll ich diesen Forumpost hier gleich auf "Solved" setzen?
 
Freut mich zu hören, dass es wieder geht. Das Problem ist, dass PVE beim Erstellen über Disks > ZFS einen Import-Service anlegt, der allerdings nicht automatisch gelöscht wird. Wenn du die Storage in PVE löscht, dann wird ja nur die Konfiguration gelöscht. Da die Storage allerdings noch weiter benutzt werden kann, macht es Sinn den Import-Service zu behalten. Erst beim zpool destroy müsste man den Service löschen, aber davon bekommt PVE nichts mit.
 
Hallo Fabian,

danke für die Infos - das ist auch das, dass ich dann erkannt habe.

Warum legt ihr überhaupt einen Import-Service an?
ZFS sollte ja prinzipiell automatisch gemounted werden, so lange man den jeweiligen Pool nicht exportiert/zerstört?
 
Okay zuürck zum eigentlichen Thema:
Ich habe nun herausgefunden, dass der Server bei jedem Neustart scheinbar alle Platten durchforstet:Unbenannt3.PNG


Das dauert gefühlt "ewig".


Ist das ein regulärer Prozess?
 
Den Import-Service gibt es, weil die zpool.cache-Datei manchmal nicht alle Pools beinhaltet bzw. korrupt werden kann (Beispiel eines Reports, es gab einige solche). Aber eigentlich sollte der Service schnell fehlschlagen und nicht blockieren wenn es den Pool nicht mehr gibt.

Könntest Du die Ausgabe von systemd-analyze critical-chain posten? Und auch die Ausgabe des/der Services mit den größten Zeitsprüngen, mit journalctl -u <Service>.
 
Hi Fabian,

also folgendes bekomme ich durch deine Ausgaben:

Bash:
root@proxmox2:~# systemd-analyze critical-chain
The time after the unit is active or started is printed after the "@" character.
The time the unit takes to start is printed after the "+" character.

graphical.target @51.074s
└─multi-user.target @51.074s
  └─pve-guests.service @21.202s +29.871s
    └─pve-ha-lrm.service @20.675s +524ms
      └─pveproxy.service @19.720s +951ms
        └─pvedaemon.service @18.965s +752ms
          └─corosync.service @18.555s +407ms
            └─pve-cluster.service @17.500s +1.025s
              └─rrdcached.service @17.390s +104ms
                └─remote-fs.target @17.384s
                  └─mnt-pve-NFS_SSD_500GB.mount @32.251s
                    └─remote-fs-pre.target @17.383s
                      └─nfs-server.service @16.255s +1.126s
                        └─nfs-mountd.service @16.137s +112ms
                          └─network.target @16.136s
                            └─networking.service @14.731s +1.403s
                              └─openvswitch-switch.service @14.195s +534ms
                                └─openvswitch-nonetwork.service @13.745s +447ms
                                  └─apparmor.service @13.720s +24ms
                                    └─local-fs.target @13.719s
                                      └─etc-pve.mount @17.526s
                                        └─local-fs-pre.target @936ms
                                          └─lvm2-monitor.service @141ms +767ms
                                            └─dm-event.service @206ms
                                              └─dm-event.socket @133ms
                                                └─-.mount @125ms
                                                  └─system.slice @125ms
                                                    └─-.slice @125ms
root@proxmox2:~# journalctl -u lvm2-monitor.service
-- Logs begin at Sun 2020-12-06 16:23:30 CET, end at Mon 2020-12-07 18:45:00 CET. --
Dec 06 16:23:30 proxmox2 lvm[729]:   4 logical volume(s) in volume group "Storage_12TB" monitored
Dec 06 16:23:30 proxmox2 lvm[729]:   9 logical volume(s) in volume group "pve" monitored
Dec 06 16:23:31 proxmox2 systemd[1]: Started Monitoring of LVM2 mirrors, snapshots etc. using dmeventd or progress polling.


Ich kann mir leider keinen Reim darauf machen?!
Meiner Meinung nach geht der Dienst her und scannt die SSD und die HDD nach virtuellen Datenträgern?!
 
Der LVM Service braucht fast keine Zeit, nur 767 Millisekunden
Code:
                                          └─lvm2-monitor.service @141ms +767ms

Das Starten der Gäste dauert fast 30 Sekunden:
Code:
  └─pve-guests.service @21.202s +29.871s
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!