Search results

  1. C

    ZFS over iSCSi alle 3 Monate Absturz NAS

    Ich kann dies leider nicht richtig bewerten. Alles neue Technik. Sieht wie Überlastung aus, reine Vermutung.
  2. C

    ZFS over iSCSi alle 3 Monate Absturz NAS

    Hier sind zwei weitere Fehler, die ich in der Logmeldungen gefunden habe: 1. Emask 0x4 (timeout) 2. Sata: failed command: READ FPDMA QUEUED
  3. C

    ZFS over iSCSi alle 3 Monate Absturz NAS

    Ok, Danke. Aber wenn /etc/multipath.conf nicht existiert, kommt dann evtl. der Fehler als Ursache in Betracht?
  4. C

    ZFS over iSCSi alle 3 Monate Absturz NAS

    Hallo, so alle 2-3 Monate habe ich auf einer OpenMediavault (nur SSD im "Raid10" ZFS) zur Nutzung mit ZFS over iSCSI einen Totalabsturz. Im PVE steht nur noch ein Fragezeichen beim Storage und auf der NAS sind Massen an SATA Fehlern, hauptsächlich SATA exception Emask 0x0 SAct 0x80 SErr 0x0...
  5. C

    ZFS over iSCSI über NAS Systeme wie?

    Danke für Deinen Hinweis. Muss ich mir anschauen CluserFS kenne ich eigentlich nicht. Was wäre mit ZFS auf DRBD? http://cedric.dufour.name/blah/IT/ZfsOnTopOfDrbd.html Viele Grüße
  6. C

    ZFS over iSCSI über NAS Systeme wie?

    Hallo, mit ZFS habe ich gute Erfahrungen gemacht. Welche Möglichkeiten (außer CEPH) gäbe es per ZFS over iSCSI angebundene NAS Systeme redundant auszuführen. Ich stelle mir vor das Proxmox eine NAS per ZFS over iSCSI angebunden hat und die NAS (z.B. OpenMediaVault) auf eine weitere NAS...
  7. C

    Cluster Network "Lite"

    Hallo, die Nodeanzahl ist gewachsen, es sind viele Spezialfälle dabei mit gemeinsamen Storages. Die 2 Nodes im anderen Gebäude sind Storage-Replicas und auch Notfall Nodes mit vielen 3,5 + 2,5 Schächten um bei Hardware Ausfall einfach die Storages umzuhängen.
  8. C

    Cluster Network "Lite"

    Hallo, ich möchte euch bitten mir eure Einschätzung dazu darzulegen. Auch die Jungs von Proxmox frage ich hiermit gern an. Wie gesagt, ich meine hier meine nicht offizielle "Lite-Version". Danke sehr. VG crmspezi
  9. C

    PVE v6.4 und v7.2 Switch IGMP Multicast notwendig?

    Nein, die sind auch für viele andere Dinge im Einsatz und funktionieren - DGS 1100 Ja klar. Aber ohne Latenzprobleme mit weniger als 1ms unwahrscheinlich. Log sagt einfach, kann das Quorum nicht herstellen weil die anderen Pves nicht gefunden werden (gleiches Subnetz per Ip) So als ob...
  10. C

    Cluster Network "Lite"

    Hallo zusammen, mich würde eure Meinung zu folgenden Construct interessieren. Cluster mit 11 Nodes, alle Nodes 1x10G oder 2x10G LACP 2 der 11 Nodes befinden sich nebeneinander in einem entfernten Gebäudeabschnitt , welches mit 2x10G Kupfer LACP angebunden ist, die anderen 9 Nodes in einem...
  11. C

    PVE v6.4 und v7.2 Switch IGMP Multicast notwendig?

    Danke für die Rückmeldung. Am Hauptswitch (10-40G) sind alle Nodes angeschlossen. Mein Testpve hängt hinter 2 weiteren Switchen (nur 1Gbit/s). Dort habe ich leider das Problem, den in das Cluster zu bekommen (geht am Hauptswitch). AUch der Betrieb verursacht nur Fragezeichen in der GUI am 2...
  12. C

    PVE v6.4 und v7.2 Switch IGMP Multicast notwendig?

    Hallo, ich wollte fragen, ob IGMP Multicast auf Switchen (DLINK) zwingend aktiviert werden muss für eine saubere Clusterkommunikation? VG crmspezi
  13. C

    temp. abgeschaltete Hosts - Quorum manuell ändern sinnvoll?

    Dein Ansatz geht auch in meine Richtung. 2 Votes zu erteilen ist eine gute Idee. Ich dachte nicht, das die Anzahl der Votes größer als der der Nodes sein darf, deshalb die 0 Votes. Danke!
  14. C

    temp. abgeschaltete Hosts - Quorum manuell ändern sinnvoll?

    Hasllo, das hat nur was mit dem hohen Energiebdarf zu tun.
  15. C

    temp. abgeschaltete Hosts - Quorum manuell ändern sinnvoll?

    Hallo, ich möchte 2 Hosts aus einem Cluster mit 11 Nodes abschalten und nur im Notfall benutzen. Die Hosts haben keine lokalen Datenträger. Ist es hier evtl sinnvoll in /etc/pve/corosync.conf die quorum_votes: von 1 auf 0 der Hosts zu setzen (nachdem die 2 Nodes ausgeschaltet sind) und bei 2...
  16. C

    [SOLVED] pvestatd storage is not online

    Ich habe einfach das Timeout erhöht, läuft seitdem (2020) ohne Probleme ... (15)
  17. C

    [SOLVED] Neuen Node zu einem Cluster unter v6.4 schlägt fehl

    Nichts ist stabiler als diese. v7.2 macht produktiv im Cluster3 bei mir viele Probleme mit Win 2022, Win11, Win10. Ich berechne viele Daten, mit v6.4.6 - Da bin ich begeistert mit mehr als 250 Kernen! Da hat Proxmox was total stabiles hervorgebracht! Danke euch Jungs aus (A) ! v7x ist für mich...
  18. C

    [SOLVED] Neuen Node zu einem Cluster unter v6.4 schlägt fehl

    Fehler gefunden, der neue PVE hing hinter 3 anderen Switchen im TestLab, möglicherweise andere Broadcast Domäne.
  19. C

    [SOLVED] Neuen Node zu einem Cluster unter v6.4 schlägt fehl

    Hallo, so ich habe nun komplett neu installiert, der neue Node heisst pve14 und hat eine andere IP. Hinzugefügt wurde dieser mit der GUI, wie vorher auch. Das Fehlerbild ist das gleiche (hier von einem Cluster-Node aus der funktioniert - auf den anderen Node's des Clusters ist das ebenso)...
  20. C

    [SOLVED] Neuen Node zu einem Cluster unter v6.4 schlägt fehl

    Hallo, nachdem der Post hier https://forum.proxmox.com/threads/lange-nicht-verwendeten-node-aus-cluster-entfernen-hardware-wechseln-und-neu-hinzuf%C3%BCgen.109231/ danke mira gelöst wurde stellt sich ein großes Problem beim Hinzufüges des "saubergemachten" Hosts: Neuen Node zu einem Cluster...

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!