Hab 3 neue Server bekommen und nach der Installation von PVE und der Konfiguration eines Full Mesh Network (RSTP Loop Setup) folgenden Datendurchsatz mit iperf3 bekommen:
root@pve3:~# iperf3 --client 10.10.xx.xxx
Connecting to host 10.10.xx.xxx, port 5201
[ 5] local 10.10.xx.xxx port 41210...
Ich hatte dieses Problem schon mal auf dem Server, damals (2022) hab ich einfach den PVE neu installiert.
Die Frage ist wodurch es ausgelöst wird, kann die Überprovisionierung daran schuld sein?
Nein
Kann eigentlich auch nicht sein, die W10 hat eine 96GB Platte, der freie Speicher liegt bei ca. 1TB.
OK... Was kann ich jetzt machen damit ich die Backups wieder restoren kann?
Den Storage neu anlegen würde sehr lange dauern und Ausfallzeit bedeuten.
P.S. Wie setzt man den Threashold...
I used the integrated QNAP virtualization station, uploaded the Proxmox-PBS ISO and installed it in the usual (Proxmox)-way...
This was just a temporary solution, I suggest to install PBS directly on Enterprise Hardware.
Die HW meines, vor einigen Tagen gekauften, refurbed Servers hat leider den Geist aufgegeben.
Sobald ich den Ersatz bekommen habe werde ich btrfs nochmal testen und melde mich dann nochmal...
Danke für Eure Antworten!
Werde dann doch lieber mit ZFS arbeiten. Hab den Server jetzt mit ZFS-RaidZ2 aufgesetzt und den Ausfall von jeder Platte (gleichzeitig eine ausgefallen) simuliert...
Hab mal einen PVE auf Btrfs Raid 10 installiert... So wie es aussieht hat er den pve lediglich auf der 1. Platte installiert oder täusche ich mich?
Möchte erreichen, dass der Proxmox auch bei Ausfall einer Platte noch von den verbleibenden booten kann...
Hallo,
möchte einen Extreme Networks WIFI-Controller virtualisieren wie hier in der Anleitung beschrieben:
Install and Deploy the Virtual Appliance Image - Proxmox VE Procedure
Am Ende wird beschrieben die VM config anzupassen:
Anscheinend passen die "args"-Parameter so nicht mehr zum...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.