Search results

  1. O

    Migration Type Performance

    Guten Morgen Falk! Danke für dein Feedback! Als CPU nutzen wir die AMD EPYC 7352 24-Core, bis jetzt hatte ich zum Glück noch keine Abbrüche bei der Migration. Dann lasse ich mal die Migration im Frontend, ist ja auch 2x10G im Bond angebunden. Wenn ich dich richtig verstehe, dann könnte ich...
  2. O

    Migration Type Performance

    Hallo Beim letzten Update auf 7.2 hatte ich gefühlt eine recht schlechte Performance beim Migrieren der VM's zwischen den Nodes. Angeblich kann dies von der Verschlüsselung/Übertragung abhängig von der CPU zwischen den Nodes resultieren. Als Hintergrund dient Ceph daher gehe ich davon aus...
  3. O

    Backup auf externen Festplatten sichern

    Ich darf mich mal hier an hängen, wäre an dem Feature auch sehr interessiert für kleinerer Kunden und Offsite Backup
  4. O

    Ceph Netzwerk

    Hy mein Kollege hatte die MLAG schon mal getestet. Es war bisschen Arbeit sich einzulsen aber es scheint zu funktionieren. Er meinte beim Ausfall dauert es halt bisschen bis sich alles wieder fängt / neu ausverhandelt wurde
  5. O

    Monitoring ceph with Zabbix 6.4

    Hy Stephan! Sorry, I did not have time to get ceph Template work with Proxmox. Think the problem is, that the manager reports via Ceph-Network which will not routed to our zabbix server. For a global overview this schould be ok. Every Node have this info, no need to know about the managers *...
  6. O

    Ceph Netzwerk

    Hy Aaron Danke für den Tipp Hab schon unsren Netzwerkexperten gebeten bei Microtik nachzulesen Ich melde mich wenns Neuigkeiten gibt
  7. O

    Ceph Netzwerk

    Hy Danke für die Info, so in der Art habe ich mir das auch gedacht. In diesem Fall handelt es sich um 2 Microtik Switche, ich schau ob ich was finden kann wie sich diese beim Ausfall ISL verhalten.
  8. O

    Ceph Netzwerk

    Hallo an alle! Ich darf mal eine Frage bez Ceph Netzwerk und Ausfallsicherheit anfragen bei welcher die Verbindung zwischen den Switches nicht redundant ist Gegeben sind 2 Switch welche mit 1x 100GBit verbunden werden. Ceph und Frontend sollten mit je einem 25Gbit im LACP Bond an die Switches...
  9. O

    Monitoring ceph with Zabbix 6.4

    Hy Gurupert! Thanks for help! I had already testet this , but always I got error mgr.server reply reply (1) Operation not permitted More see: https://forum.proxmox.com/threads/ceph-zabbix-send-fehler-nach-update-auf-pve-6-1.61968/ Second problem the "ceph zabbix sender" use the Ceph Network...
  10. O

    Monitoring ceph with Zabbix 6.4

    Hy to all!! Does anybody know if the zabbix template "Ceph by zabbix agent2" V6.4 is working with ProxmoxVE? As I can see the templates uses Ceph API to collect data. Authenticated via Ceph User,API Auth Key and URL https://<server>:8003 . If Ceph API isn't aktive, is it save to enable it? How...
  11. O

    NFS doesn't remount automatically after turn on or restart the NAS

    thanks a lot limone (2017) Had the problem, unmount and wait solved the problem!!
  12. O

    PBS mit gr Datastore

    Hy Erst mal danke für eure Unterstützung und sorry ich habe mich missverständlich ausgedrückt. Mit Disks waren SSD Disks gemeint, also sollte ich mit der Performance kein Problem haben. Aber welches ZFS Layout hierfür das beste ist kann ich leider nicht sagen. Natürlich ist Raíd10 am besten...
  13. O

    PBS mit gr Datastore

    Hy Leute! Ich werde mal wieder um ein System gebeten welches ich noch nie "gebaut" habe. Hoffe auf etwas Feedback euerseits da ZFS Sizing nicht meine Stärke ist. Es sollte alles von Vmware, Veeam weg migriert werden. Der San Cluster sollte durch ein Cephcluster ausgetauscht werden...
  14. O

    Ehemaliger SM Mist gebaut.. bitte um Hilfe!

    Interessante Geschichte. Bisschen weiterhelfen werden wir schon können, wobei das Root PWD schon recht Klasse wäre. Auf die schnelle hab ich das gefunden wobei ohne Backup der VM u Test fürs Rücksetzen würde ich das nicht durchführen https://www.youtube.com/watch?v=4s22pqfgu1c
  15. O

    Replikation von ceph auf zfs

    Hallo Aaron! Danke für deine Unterstützung. Denke mit einem der beiden Methoden sollte es möglich sein. Da ich den Kunden recht wenig kenne kann ich auch wenig zum Verhalten der VM sagen. (Was ich weiss ist, dass noch eine gr SAP Maschine drauf ist.) Ich werde das mal mit dem Kunden...
  16. O

    Replikation von ceph auf zfs

    Hallo Anbei eine andere Idee, Hat jemand Erfahrung ob es möglich ist, 2 Cluster mit Ceph und 2 Pools zu erstellen und diese gegenseitig zu replizieren [0] Könnte es hier bei PVE Updates zu Problemen kommen? Oder wäre es besser 1 Hauptcluster auf welchen die prod VM laufen sowie ein weiteren...
  17. O

    Replikation von ceph auf zfs

    Hallo Aaron! Das mit dem Backup habe ich bereits vorgeschlagen. Die VM's haben in Summe rund 8TB, eine Wiederherstellung via Live Restore ist für den Kunden zu langsam. Er hatte eben solche ein Fall mit Vmware und Veeam. Eine VM ist ein DB-System welches stark ausgelastet ist. Geplant sind 2...
  18. O

    Replikation von ceph auf zfs

    Hallo Ich darf mal die Frage in die Runde stellen, da ein Kunde ein solches Szenario für rasche Verfügbarkeit bei Ausfall von Ceph bzw Verschlüsselungsviren wünscht. Geplant wäre ein Cluster mit 6 Nodes auf welchen Ceph installiert wird. Weiters sollten im jeden Node zfs Pools enthalten sein...
  19. O

    USB Automount PBS

    Hy Thomas! Danke für die Info! Wenn ich mir noch etwas wünschen dürfte wäre dies eine Versionierung sodass zb auf ein kl Datastore gesynct werden kann. Zb USB Disk wird angehängt. Das aktuellste Backup der vm wird auf die usb disk gesynct. Usb-Disk kann wieder entnommen werden. Das mit dem...
  20. O

    USB Automount PBS

    Ich darf mich hier mal dranhängen, da das feature recht cool wäre Danke!