wow toll das du so schnell antwortest und dir die zeit nimmst!
also hab das mal auch einfach eingetragen zum testen aber da kommt folgende fehlermeldung
es gibt den PVE1 im netzwerk und auch im monitoring verstehe nicht was ich da sonst noch eintragen soll....
vielen dank fürs antworten und...
Hey Proxmoxianer,
hab da mal wieder ne Frage, diesmal geht es um Proxmox und Check Mk 1.5 genauer:
Wir haben 125 VMS 10 PVes auf 4 Cluster ich hätte gerne Im Inventorisierungs Check eine Möglichkeit den genauen Standort der VMs also auf welchem PVE oder in welchem Cluster sich dieser befindet...
Servus leudde,
so leider liefen die Backups nicht durch bei einem PVE wenn ich in der Gui bei dieser PVE schaue kommt wenn ich auf storage LVM-Thin-ssd und dann auf Content gehe kommt:
greetings und vielen Dank Znuk
Hallo Zusammen ich brauch mal wieder einen Gedankenanstoss.....
Folgender Fall:
2 VMs gleiche ip/mac und diverse Software identisch drauf eine VM ist offline (Netzwerk getrennt)
leider sind auf der Offline-Maschine wichtige Dateien er darf aber auf keinen Fall mehr ans netz
wie bekomme ich...
nice genau das wars vielen dank !!
systemctl restart pve-cluster
systemctl restart pvedaemon
systemctl restart pveproxy
systemctl restart pvestatsd
hab die alle gemacht und das ging wichtig war mit mit dem pve-cluster anfangen! ;) grüße und nochmal vielen dank!!!
Also nochmal ich... defakto is es so das egal was ich eingebe die verbindung zum Putty abbricht z.b.
pvestatd status geht nix weiter auch mit strg+c lässt sich das nicht beenden und ich muss putty neustarten
sogar df -h bricht ab
qm bricht ab
usw usw... bin verzweifelt hoffe mir kann jemand...
nein die storages sind nicht offline das funktioniert alles nur bei den anderen PVEs im Cluster... nur eben bei dem nicht ;(
wir haben einen Cluster mit 6 nodes und ca. 50 VMS
die anderen NOdes arbeiten wunderbar
ah und danke für die antwort ;)
Hallo zusammen ich bins mal wieder.
komme heute morgen in die Arbeit und einer unserer PVEs sieht so aus:
die VMS laufen alle noch... ein qm list läuft ins leere und kann nicht abgebrochen werden
hat jemand mehr Ideen zum debuggen möchte den eigentlich nicht neustarten... da die VMS...
oh danke für die schnelle antwort
Dec 16 15:34:23 le15764 systemd-udevd[633]: Worker [4834] terminated by signal 11 (SEGV)
Dec 16 15:34:23 le15764 systemd-udevd[633]: ext4_inode_cache(1068:pve-ha-lrm.service): Worker [4834] failed
würde sagen das das dann der fehler is oder
Hallo zusammen heute sind bei mir 2 der insgesamt 6 PVEs im Cluster zeitgleich down gegangen siehe Screenshots.
leider konnte ich den freez nicht screenen hat jemand ne idee wo ich dazu was finden könnte?
ich habe soviele switches wie ich will geld spielt nicht wirklich eine rolle.... wichtig ist nur das es Proxmox ist und nicht VM
ich könnte noch die ssds aus ihrem raid lösen dann hätte ich zwar weniger platz aber dafür immer die gleichen ssds
soll ich das einplanen?
nein kein ceph haben einfach ein samba share wir vermuten das das auch ein grund ist warum die backups langsam sind
ausserdem wollen wir gerne HA haben und das wäre wohl mit ceph machbar... ich wollte halt wochenendarbeit vermeiden
spricht was gegen ceph... klang in meinen Ohren halt recht...
nein leider sind sie doppelt ;( wie würdet ihr es dann machen? Backups ziehen und die dann auf den 6 Spock PVEs verteilen und dann die 3 PVEs aus dem andere Cluster nachziehen?
Aber wie bekomme ich dann die Vms auf die Ceph geschichte geht das mit move disk?
Hab mal 8 Pves zusammengefasst kann...
Hallo liebe IT Kolleginnen und Kollegen,
hab mal wieder ne Frage erstmal der Ist Stand:
1 Cluster (Spock) mit 6 PVEs und ca. 60 VMS
1 Cluster (PVE1) mit 3 PVEs und ca. 60 Vms
alle Vms Laufen und sollten nicht heruntergefahren werden
Zukunft(Wunsch)
1 Cluster Spock mit 9 PVEs und ca. 120 VMS...
ok so wie es aussieht geht es jetzt habe festgestellt das im cluster 2 pves die gleiche ip adresse hatten und das ein ssh fehler sowie dieser fehler zusammenhingen vielen dank für die hilfe!
ok habe es gelöst in dem ich die keys der nicht funktionierenden händisch aus der /etc/ssh/ssh_known_hosts rauschlösche
danach funktioniert es
also erst
ssh-keygen -f "/etc/ssh/ssh_known_hosts" -R "le15965"
dann
nano /etc/ssh/ssh_known_hosts
dort dann die betreffenden Hosts mit strg+k...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.