Hi,
sounds good!
Don't forget, that we have some IO-Load: (sdb is the lvm hdd-raid)
ATOP - pve02 2020/10/01 10:43:39 -------------- 10s elapsed
PRC | sys 7.17s | user 7.91s | #proc...
Hi Wolfgang,
yes the lvm storage is behind an perc:
PERC H740P Mini (Integriert) Integrated RAID Controller 1 Firmware: 51.13.0-3485 Cache: 8192 MB
The lvm is on an raid6 with 6 hdds (now in expansion-process with 2 further disks)
On this node, there are only 2 lcm-storages defined...
Hi,
I'm not sure if new hardware is the key - this happens for me with actual hardware (less than 1 year old).
But I've running the kernel on other (older) Hardware without trouble…
Udo
Hi,
any news on this?
I have an similiar effect, the VMs with lvm are still working, but all lvm-commands (lvs, vgs, pvs) hung and due this the node and all VMs are marked with an ? in the gui.
Sep 28 21:14:27 pve02 kernel: [ 2783.664724] INFO: task pvs:411112 blocked for more than 362 seconds...
Hi,
wo kommt denn die leere MBR-Partition-Table her?
Es wurde ja schon vorher empfohlen eine Sicherung anzulegen, wenn Du eine leere 4TB-Platte hast (achtung, inhalt wird überschrieben), die z.B. als /dev/sdc am Rechner hängt. Kannst Du folgenderweise eine Kopie der Platte anlegen:
dd...
Hmm,
Windows95 filesysrtem mit den Anfangssektor und dann noch NetBSD - das sieht eher aus, als wenn dein Testdisk VM-Disks auf dem nicht mehr vorhandenen Filesystem gefunden hat.
Dein ext3 würde auf jeden Fall anders aussehen - Z.B. mit Startsektor 2048
Was für eine Ausgabe bekommst Du denn...
Hi,
wie schon Dunuin schrieb, ist es wichtig zu wissen, ob eine Parttitiontable drauf war, und was für eine. Bei gpt steht eine Kopie im letzten Block und die kann benutzt werden um die Partitiontable wieder genauso anzulegen. Sonst muss man es wissen, wie sie angelegt war.
Auf seine Frage hast...
Hi Spirit,
looks that the issue is still (or again?) on actually pve-nodes:
pveversion
pve-manager/6.2-11/22fb4983 (running kernel: 5.4.55-1-pve)
qm start 436
kvm: -device pc-dimm,id=dimm61,memdev=mem-dimm61,node=1: a used vhost backend has no free memory slots left
start failed: QEMU exited...
Hi Alwin,
unfortunality due the bad iscsi-raid the iowait are so high, that from other vms the drbd-sync (inside the vms) failed.
Due that all VMs are using drbd inside to sync the data I recreate the big disks on the fibrechannel-raid and let DRBD resync the data again.
Udo
Hi all,
I want to migrate some big VM-Volumes from an internal raid to an FC-Raid (LVM) online.
And big mean realy big - up to 10TB.
The destination raid should be much faster than the source-storage. Especially for the biggest volume, which are on an slow iscsi-raid (LVM) now.
Has anybody...
Hi,
für eno1 brauchst Du keine Bridge - da hängen ja keine weiteren Interfaces (von VMs) mit drauf.
Hier reicht es eno1 ganz normal mit der IP und dem Gateway einzurichten.
Ob ein bond mit drei Interfaces jetzt sinnvoll ist, weiss ich nicht. Vielleicht ist da Dein Ansatz eine extra Bridge für...
Hi,
Du kannst ein device (bond0) nur einer bridge zufügen. Ebenso machen in meinen Augen die vielen Bridges keinen Sinn.
Klar kannst Du mehrere bonds aus vlan-getaggten devices anlegen, aber da sehe ich keinen Vorteil bei der Konfiguration.
Keep it simple!
Darum einfach bond0 als device von...
Hi,
the subdir "template/iso" will automaticly create, if you select Iso Image as content - when you select Backup too, an directory named dump will created.
So use Local - which should map to /var/lib/vz and put the iso in /var/lib/vz/template/iso/
If your iso don't show, how is the iso named...
Hi,
in this case for 6GB (perhaps too much for an 16GB-server):
cat /etc/modprobe.d/zfs.conf
options zfs zfs_arc_min=6442450944
options zfs zfs_arc_max=6442450944
#
# after changes it's important to run
# update-initramfs -u
# and reboot
Udo
Hi,
do you use zfs on this server?
If yes - do you have set zfs_arc_min + zfs_arc_max?
I had reboots (but time ago) with an low memory server on heavy zfs-IO.
Udo
Yes this work, but you need an little hack, use an samba container - create the snapshots on the host and mount the snapshots inside the container with sshfs-mount - then you can access the snapshotted data with an windows client (older versions).
Works well.
Unfortunality an apple-client don't...
Ok,
die Fehlermeldung bezieht sich nur auf's virtuelle Cluster-Filesystem /etc/pve?
Dann würde ich es mal einfach restarten (deine VMs laufen weiter):
systemctl restart pve-cluster
Udo
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.