Proxmox Updates COMMUNITY

achim22

Renowned Member
May 21, 2015
414
5
83
58
Dortmund
Hallo,
ich habe die Community für 1 Jahr geordert.
Wie "sicher" sind die Updates das Proxmox nach dem Update auch wieder hochfährt ?

Es wäre echt " problematisch " wenn dann die Gäste nicht mehr laufen bzw. Proxmox !

Gruß
Achim
 
Hallo,

Also ich teste gerade bissl rum auf einen neuen Server, und nach einer Frischen 4.2 Installation und anschliesenden non-sub upgrade inkl kernel geht bei mir nichtsmehr :)
Ich lass das vorläufig mal.
 
Last edited:
Ok ich muss jetzt nachtragen das es nichtmal ohne den updates bei mir funktioniert....
Kann also sein das es an mir liegt.
 
Ok, dann lasse ich auch mal die Finger davon. Ich frage mich nur warum ich für die Updates bezahle wenn es nicht klappt!

Updates funktionieren fast immer problemlos und beheben Fehler.

Wenn es doch einmal probleme gibt, werden diese bald behoben. Die enterprise updates sind die am besten getesteten Packete, und dafür kann man bezahlen.
 
Ok ich muss jetzt nachtragen das es nichtmal ohne den updates bei mir funktioniert....
Kann also sein das es an mir liegt.

Wenn was "nicht geht", bitte genau beschreiben was denn "nicht geht", dann können wir auch helfen.
 
Hallo,

Ich wollte erstmal selber gucken was ich tun kann und einen neuen Thread aufmachen.
Aber ich kann auch hier herrein editieren wenn es ok ist.
 
Also gut folgendes Problem:


Ich reboote mein Host-System und in 50% der fälle ist alles ganz normal!
Aber in den anderen 50% kommt folgender fehler:


Und hier noch nen Fehler:


Und manchmal das:


Ich muss dan den Host nen paar mal Resetten und dann booted er wieder ganz normal!
Hier meine fstab:

# <file system> <mount point> <type> <options> <dump> <pass>
UUID=2e28f275-12c2-47c8-852b-3eee624bcfbd / ext4 errors=remount-ro 0 1
UUID=BE4C-EF83 /boot/efi vfat defaults 0 1
UUID=fda90c5b-d7ca-45e1-906c-37e72e6b0948 none swap sw 0 0
proc /proc proc defaults 0 0
UUID=a52d51c3-8248-4476-9f77-fc3a4eb4ef5f /vm ext4 defaults 0 0
Und hier blkid:
/dev/sdm2: UUID="BE4C-EF83" TYPE="vfat" PARTUUID="8f12c879-262a-4f44-9f82-2641428aa4d3"
/dev/sdm3: UUID="90ZquF-LWgC-9vXL-iT3e-l4xg-EQDf-uMwy0U" TYPE="LVM2_member" PARTUUID="c12081d8-514d-49d5-944b-5b9b5f4de376"
/dev/sdn1: UUID="a52d51c3-8248-4476-9f77-fc3a4eb4ef5f" TYPE="ext4" PARTLABEL="Linux filesystem" PARTUUID="4d1d58f3-0a16-4e77-96fe-3032ed9c6065"
/dev/sdb1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="2794736924302154303" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="be104e9f-7fec-0049-b618-5520e5a19b52"
/dev/sdf1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="983325367096231429" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="fae2582f-8fe1-3043-bed0-1a53338a1d45"
/dev/sdh1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="15489832203847207904" TYPE=
"zfs_member" PARTLABEL="zfs" PARTUUID="541557fc-d6c1-4548-b9a9-9c9f392cb6fd"
/dev/sdk1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="14560626416789787312" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="c7c1b6bc-811e-0b4e-aa0c-325fe7d31421"
/dev/sdl1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="2701019071722909125" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="720a64b8-d504-8043-8695-418042ae17aa"
/dev/sda1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="16993045130759529059" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="0fe76bc8-6208-1145-9fa3-dcc634af913f"
/dev/sdc1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="3238660450285459579" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="1a1dc7a1-3332-dc47-89f1-cfbb7e9e23c0"
/dev/sdd1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="9317814376586034491" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="ba0efaec-74d7-e94b-8916-eda825892327"
/dev/sde1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="4962973344763057053" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="2cd6d1ff-23df-734b-b7b4-9060b6a62612"
/dev/sdg1: LABEL="tank1" UUID="16979487647632782792" UUID_SUB="1796533711192501349" TYPE="zfs_member" PARTLABEL="zfs" PARTUUID="d7a579e6-18da-b94f-b540-abea467c4c31"
/dev/sdj1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="3006d01d-f3ac-03d7-4c86-0ed91145176f" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="41d68d9e-842
f-6f41-9d52-70322128257a"
/dev/sdi1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="790e1e7c-73b0-61b5-263c-ca1984217c9b" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="10e6cdfe-3c47-dd41-9375-0295ca8dded9"
/dev/sr0: UUID="2016-04-26-14-29-56-00" LABEL="PVE" TYPE="iso9660" PTTYPE="PMBR"
/dev/mapper/pve-root: UUID="2e28f275-12c2-47c8-852b-3eee624bcfbd" TYPE="ext4"
/dev/sdo1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="d3679131-1c8b-f959-52e4-4415fd678528" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="f0ec7771-c375-ee43-ae3e-4413d7a4d2c6"
/dev/sdp1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="b5627c5b-c2b6-6030-a3b8-0fbddd66b01a" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="24918676-86b8-1c49-b2da-02c019e81f92"
/dev/sdq1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="bab0c130-f322-abeb-b7b1-ee33df05d920" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="c4257ee3-41c2-514d-97c3-58792babe446"
/dev/sdr1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="e8ec0b51-c0ab-c3a0-891f-417d052436eb" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="0ec84657-09fe-8945-91ac-5d7deeb4f6ad"
/dev/sds1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="acec123b-5ca1-b8b7-6a81-75cbe72e6d3b" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="7d99ad7a-20b8-df4f-984d-3e704cb50198"
/dev/sdt1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="a73e5ce3-8c15-5219-1801-63987b225450" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="dfd42b94-1dac-004b-9717-341e88edfd05"
/dev/sdu1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="98be5967-1f79-7aed-dc6a-7040dafc57ba" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="dd604696-8449-5644-ac1d-29e5e337faca"
/dev/sdv1: UUID="04b0c84b-4363-a36a-7a81-8f8f59fa5710" UUID_SUB="66bf733c-2fbd-5c92-1ca5-d581393799f1" LABEL="cube:0" TYPE="linux_raid_member" PARTLABEL="zfs" PARTUUID="93dbbdb4-5b16-374d-8980-79ce01822610"
/dev/mapper/pve-swap: UUID="fda90c5b-d7ca-45e1-906c-37e72e6b0948" TYPE="swap"
/dev/sdm1: PARTUUID="eb948630-1f16-42bb-8f69-5355b9646de3"
/dev/sdb9: PARTUUID="7cbf86cb-f72a-3146-867e-ac54556291a6"
/dev/sdf9: PARTUUID="edf97329-9412-0d40-b8c3-bdf76abcc29a"
/dev/sdh9: PARTUUID="fac2e8f7-3017-d640-9042-5d59eee44240"
/dev/sdk9: PARTUUID="1baa8eba-e269-fc4a-a337-f8923ddab6c6"
/dev/sdl9: PARTUUID="44fb8f09-8566-f648-9584-f2e352904307"
/dev/sda9: PARTUUID="126cc527-2f83-2f48-a7db-14a45d037b19"
/dev/sdc9: PARTUUID="6a3dccc6-162a-d441-9a9a-bd103c562a0a"
/dev/sdd9: PARTUUID="650a53f5-4930-664d-ad22-15a0f50f28e0"
/dev/sde9: PARTUUID="0bfd2176-860a-3043-a393-4d7896a26de2"
/dev/sdg9: PARTUUID="7d78d96e-44c1-4c41-83de-a9fb7a15951a"
/dev/sdj9: PARTUUID="00d758c7-00a2-a64e-ad0c-51c7f6360d92"
/dev/sdi9: PARTUUID="aa7b773e-c0d7-854e-8769-1782aa0381ff"
/dev/sdo9: PARTUUID="e6ba94c5-f77b-1e4c-b6de-faa4d471e053"
/dev/sdp9: PARTUUID="e9610e6a-e37c-9b4e-94e9-c80665e7aea5"
/dev/sdq9: PARTUUID="8fbf6d61-4703-4746-b0a9-cd3b5b6ad178"
/dev/sdr9: PARTUUID="27e32f74-9441-e241-8552-fe7cb5b85070"
/dev/sds9: PARTUUID="c6971cfe-aec0-7a42-a7bb-580bd928e9c8"
/dev/sdt9: PARTUUID="ef25af93-7ee1-b144-a835-decdf6987715"
/dev/sdu9: PARTUUID="817ccf7d-9032-4f49-bc37-d6a2b41ea7b2"
/dev/sdv9: PARTUUID="6ace011b-3f65-bf48-a8c6-4c66765d93f2"


Weis da einer was ?
 

Attachments

  • error1.jpg
    error1.jpg
    115.3 KB · Views: 22
  • error2.jpg
    error2.jpg
    186.8 KB · Views: 23
  • error3.jpg
    error3.jpg
    574.8 KB · Views: 19
Last edited:
Also das erste ist kein Fehler, das zweite nicht wild, aber der letzte ist schon ein richtiger Kernel Crash. Diesen müsste man weiter debuggen, was schon einiges an Arbeit, Zeit und Können voraussetzt. Bei solchen Probleme ist es wenn man es kann oder jemand dafür bezahlt, dass er sich darum kümmert.
 
Warum is den das 2 nicht so Wild? Der macht da nicht weiter.....bin jetzt bei 1 Stunde wo es so ist :p
Keiner eine Idee ? Das is ne Frische 4.2 installation.....nichts verändert.
 
Weil es kein Crash ist, sondern so wie es aussieht "nur" ein Deadlock.

Der Crash war innerhalb eines Zugriffs auf ATA, sodass es suggeriert, dass es hier u.U. ein Problem mit einer Disk gibt. Prüfe mal (vielleicht mit Live-Linux) die Disks alle mittels Smart ob er was meldet.
 
Also ich muss hier mal das Proxmoxteam verteidigen. Wir haben wirklich zig Server laufen, von HP, von DELL, Supermicro und sogar ein paar Eigenbau .Ausserdem ist PVE ja nur der Aufbau, drunter ist ein normales Debian. Die Updates vom Enterpriserepo ist sehr gut. Wirklich wilde Probleme hab noch nicht. Und schon gar nicht das nach Updates mal was überhaupt nicht mehr geht. Kleinigkeiten die mal nicht funktionieren wird es immer geben. Aber auch da regiert der Support sehr sehr schnell und versucht zu helfen.

Auch Dinge wo wir Bugs gefunden und so manches mal auch gefixt haben, wurden sehr schnell eingebaut. Oder waren schon im Testingrepo. Auch ein Distributionsupgrade von z.B. PVE 4.0 auf 4.2 lief ohne Probleme, auch früher schon.

Nicht kompatible Hardware wirds immer geben, auch da sollte man Hardware kaufen wo weis das diese Linux zertifiziert ist. Z.B. Dell. Da weis man dann auch da das System mit Sicherheit läuft. Bei HP weis ich mit Sicherheit das die ML350er Serie bis inkl. G9 wunderbar funktioniert.

Dort wo wir z.B. mal richtige Probleme mit dem Cluster hatten und das über Monate immer wieder... war das auch ein HW defekt. Da wir so viele Server laufen haben und immer PVE einsetzten traue ich mir schon zu sagen das des wirklich absolut stabil läuft. Mittlerweile setzen wir es für alles ein. Auch für Backupserver, Storage usw. haben auch eigene Installer geschrieben.

Ausserdem darf auch jeder ein kleinwenig dem Projekt beitragen. Mehr Geld für PVE heist auch noch stabiler und besseren Support :) ... zumindest gehe ich davon aus...
 
  • Like
Reactions: neonmaus
Hallo,
ich habe die Community für 1 Jahr geordert.
Wie "sicher" sind die Updates das Proxmox nach dem Update auch wieder hochfährt ?

Es wäre echt " problematisch " wenn dann die Gäste nicht mehr laufen bzw. Proxmox !

Gruß
Achim
Hi Achim,
bis auf ein Problem mit einem OpenVswitch-Update, gab es für mich keine gravierenden Probleme durch Updates (3 Cluster - 13 Nodes).

Wir nutzen ProxmoxVE seit 2009 (angefangen mit einer Node) und sind sehr zufrieden damit.

Udo
 
Hallo Leute,
danke für die Infos.

Ich finde es super klasse das es jetzt auch ein Forum in deutsch gibt. Englisch klappt zwar auch aber "deutsch" ist einfacher :)
Bis jetzt gab es auch noch nie Probleme bei einem Update.

Ich habe nur immer ein "komisches" Gefühl wenn ich auf Updates gehe. Das Problem liegt aber bei mir weil ich keine "wirkliche" Datensicherung fahre mit einem zweiten Server.

Aber das werde ich jetzt mit eine VRack und zwei Rootserver bei OVH ändern. Wenn dann einer "platt" geht läuft der zweite :)


Schöne Grüße
Achim
 
Hallo!

Ich finds ebenfalls klasse mit dem Forum in deutsch!

Zum Thema Updates, wir haben Proxmox seit der Version 2.X im Einsatz, im Produktiveinsatz seit der 3.X Version, und bis heute Version 4.2 gab es nach Updates NIE Probleme!! Respekt an die Entwickler von Proxmox, die so eine unschlagbare Umgebung geschaffen haben!

Viele Grüße,

Roman
 
Hallo Roman,
ich bin über 20 Jahre Admin und noch aus der Generation wo "Englisch" nicht so wichtig war.
Trotz dessen komplette Mailserver und Telefonanlagen aufgesetzt uvm.

Was ich damit sagen möchte ist das es klasse wäre wenn es auch ein paar Howos in deutsch geben würde damit man die Stärken von Proxmox noch besser erkennt.




Gruß
Achim
 
Hallo Achim!
Ja, klar wäre es super mehr HowTos in deutsch zu haben. Wir haben für uns intern schon einige Dokus erstellt, wie man z.B. eine komplette PVE Umgebung in Verbindung mit Ceph schaffen kann usw.
Zur Info, am 11. Oktober diesen Jahres ist die erste deutsche Proxmox Veranstaltung in Berlin! Die Veranstaltung leitet ein ehemaliger Kamerad von mir, ich bin schon sehr gespannt auf diese Veranstaltung!

Grüße,

Roman
 
Ja, klar wäre es super mehr HowTos in deutsch zu haben.

Ganz ehrlich ... warum? Sämtliche sonstige Dokumentation und alles andere ist in englisch.

Schreibt bitte alles in englisch ins Proxmox-Wiki, sodass mehr Leute davon profitieren können. Ihr könnt mich gerne anschreiben, wenn ihr jemand zum Proof-Reading/Übersetzen braucht.
 
Das Problem ist das es immer wieder Leute gibt die ( aus Altersgründen wie bei mir ) der englischen Sprache nicht so mächtig sind.
Man kommt zwar immer "irgendwie" weiter aber klarer wäre es in deutsch.

Sicher ist die IT Sprache englisch, aber gerade bei einem österreichischen Unternehmen sollte doch gerade deutsch kein Thema sein!
Und in der heutigen Zeit schon gar nicht!
Die "anderen" Visualisierer auf dem Markt können es doch auch.

Ich kann hier nur für mich sprechen und war kurz davor das Projekt " Proxmox " aufzugeben.
Und zwar genau aus den o.g. Gründen.

Seit dem es hier das deutsche Forum gibt habe ich viel da zu gelernt, eine zweiten Server aufgesetzt und Subskription gekauft!

Gruß
Achim
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!