Ok, ich habe auch noch ein paar ZFS Foren durchsucht.
Der On Board Controller Smart Array P410 scheint für ZFS ungeeignet, da er kein JBOD ( Just a bunch of disks) unterstützt.
Ich habe jetzt einen LSI Controller eingebaut welcher JBOD unterstützt und könnte die 3 Festplatten als RAID-Z1...
Das Problem ist eher der Controller. Die Performance scheint gut zu sein, wenn man mit dem Controller ein logical Volumen aus den 3 Festplatten erstellt.
Erstellt mann aber für jede Platte ein logical Volumen geht die Schreib Leseperformance ungewöhlich start zurück.
Deshalb möchte ich ein...
Hallo,
ich habe einen Proxmox 5 Node im Cluster auf ZFS Dateisystem.
Leider ist die Performance des ZFS Dateisystems sehr schlecht.
Ich habe 3 Festplatten als Raid 1 erstellt.
Ich möchte nun die 3 Festplatten über den RAID Controler als RAID 5 konfigurieren und danach mit ZFS ein Raid 0...
Eine Frage noch:
ich habe mehrere Netzwerkkarten in den Servern.
Kann man steuern dass die Replikation über eine bestimmte Netzwerkarte geht?
Danke
Sven
Hallo,
ich finde es super dass man seit Proxmox 5 eine Replikation von VMs auf einen anderen Node durchführen kann. Vorraussetuung ist ein Cluster und zfs als Dateisystem.
Die Replikation lässt sich über die GUI schnell einstellen.
Die Übertragung einer VM auf einen anderen Node geht dann aber...
Oh stimt, mann sollte natürlich die Ausgabe von omping auch richtig interpretieren...
Es kommen nur unicasts zurück.
root@pve01:~# omping pve01 pve02
pve02 : waiting for response msg
pve02 : waiting for response msg
pve02 : waiting for response msg
pve02 : waiting for response msg
pve02 ...
Hallo Dietmar,
root@pve02:~# pvecm add 192.168.222.101 --force
can't create shared ssh key database '/etc/pve/priv/authorized_keys'
node pve02 already defined
copy corosync auth key
stopping pve-cluster service
backup old database
waiting for quorum...
und dabei bleibt es "waiting for qorum"...
Hallo,
ich wollte einen PVE Cluster erstellen.
Ich habe Multicast mit omping getestet und auch dafür gesorgt dass alle Nodes die selbe Uhrzeit verwenden.
Auf dem ersten Node habe ich mit "pvecm create PVECuster" den Cluster erstellt.
Danach habe ich auf dem zweiten Node "pvecm add IP des...
Hallo,ich überlege gerade ob es machbar ist das ganze so zu gestalten:
Auf meinem iSCSI Storage habe ich eine VG Storage.
Dort könnte ich zwei Thin Pools erstellen:
pve01_pool und pve02_pool
Aus dem Thin Pool "pve01_pool" erstelle ich der Proxmox GUI auf Server 1 einen LVM-Thin Storage
Aus...
Hallo,
dieser Gefahr bin ich mir bewusst. Der Cluster sorgt dafür dass beim Erstellen einer VM eine VM ID und somit der VM Disk Name nur einmal erstelllt werden kann. Ohne Cluster und shared Storage muß ich darauf achten, nicht versehentlich eine VM mit gleicher ID auf beiden Proxmox Servern zu...
Hallo,
ich betreibe einen Proxmox Server im Rechenzentrum.
Dieser Server ist per Multipath an ein iSCSI Storage angebunden so wie hier beschreiben:
https://forum.proxmox.com/threads/multipath-iscsi-lvm-and-cluster.11938/
Auf dem iSCSI Storage ist also ein LVM installiert und die virtuellen...
Hallo,
ich würde gerne 3 Proxmox Nodes mit Ceph über die Nodes verteilt betreiben.
Für denCeph Storage habe ich in jedem Node 2 10GBit Netzwerkkarten.
Diese würde ich nutzen um die Nodes direkt ohne Swich zu verbinden.
Das ganze geht wohl mit Hilfe von Spanning Tree.
So wäre der Plan:
Ceph...
Hallo,
einmal vielen Dank für die schnelle Antwort.
Richtig, da Ceph aber die Daten auf die anderen 2 Nodes verteilt, habe ich ja 2 verschiedene Ziele (Macs)
Kann jemand bestätigen dass bei der Berechnung Quell MAC XOR Dest Mac nur die letzten 3 oder 4 Bits der Mac Adressen zur Berechnung...
Hallo,
ich habe ein paar allgemeine Verständnisfragen zum Bonding von Netzwerkkarten.
Ich habe drei Proxmox Nodes als Proxmox Cluster konfiguriert.
Ich nutze Ceph als Storage verteilt über die drei Nodes. (das Ganze erst mal als Testsystem)
Für die Anbindung des Ceph Storage nutze ich jeweils...
Danke für die schnelle Antwort.
Ziel war natürlich zwei 1GB Netzwerkkarten für Lastenausgleich und Fehlertoleranz zusammenzuschließen.
Active-backup bietet leider nur Fehlertoleranz.
Dann müsste ich LACP nutzen, kann dann aber nu eine Switch nutzen da die TP-Link nicht stackable ist.
Ansonsten...
Hallo,
ich möchte einen Proxmox Cluster bestehend aus 3 Nodes und Ceph als verteiltes Dateisystem aufbauen.
Für den Stornage möchte ich 2 Netzwerkkarten bündeln.
Außerdem möchte ich zwei Switche für Fehlertoleranz verwenden. Netzwerkkarte 1 mit Switch 1 verbunden, Netzwerkkarte 2 mit Switch 2...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.