Search results

  1. O

    [SOLVED] Replikation einer großen VM

    Hy normal verwenden wir kein Thin da wir in der Regel genug Speicher verbauen, weniger beim Erstellen /Ändern beachtet werden muss. Wenn ich richtig verstehe dann ist die Lösung die Disk/VM in ein Speicher mit Thin zu legen, da nur Änderungen geschrieben werden und es ein Fileserver ist sollte...
  2. O

    [SOLVED] Replikation einer großen VM

    Hallo Fabian! Immer gerne, danke für deine Hilfe. Hätte nun noch folgenden Link mit Infos von dir gefunden, Interessant wäre grad die 2TB Disk mit "thin" zu replizieren. Es handelt sich um ein Fileserver mit mehr als 90% starren Daten. Das Risiko wäre überschaubar für Replikat-Snapshots...
  3. O

    [SOLVED] Replikation einer großen VM

    Hallo an alle! Ich sollte für eine VM mit knapp über 2TB ein Replikat auf den anderen Node des Clusters einrichten. Als Source und Destination dienen je ein ZFS Laufwerk im Mirrow mit 8TB von welchen 3 - 4TB bereits für VM benötigt werden. Wenn ich das Replikat der VM einrichte reserviert sich...
  4. O

    Monitoring ceph with Zabbix 6.4

    hy I was able to get the values like this tutorial https://geekistheway.com/2022/12/31/monitoring-proxmox-ve-using-zabbix-agent/ As Api Url use https://{HOST.CONN}:{$PVE.URL.PORT}/api2/json/cluster/ceph/status kr Roland
  5. O

    Migration Type Performance

    Guten Morgen Falk! Danke für dein Feedback! Als CPU nutzen wir die AMD EPYC 7352 24-Core, bis jetzt hatte ich zum Glück noch keine Abbrüche bei der Migration. Dann lasse ich mal die Migration im Frontend, ist ja auch 2x10G im Bond angebunden. Wenn ich dich richtig verstehe, dann könnte ich...
  6. O

    Migration Type Performance

    Hallo Beim letzten Update auf 7.2 hatte ich gefühlt eine recht schlechte Performance beim Migrieren der VM's zwischen den Nodes. Angeblich kann dies von der Verschlüsselung/Übertragung abhängig von der CPU zwischen den Nodes resultieren. Als Hintergrund dient Ceph daher gehe ich davon aus...
  7. O

    Backup auf externen Festplatten sichern

    Ich darf mich mal hier an hängen, wäre an dem Feature auch sehr interessiert für kleinerer Kunden und Offsite Backup
  8. O

    Ceph Netzwerk

    Hy mein Kollege hatte die MLAG schon mal getestet. Es war bisschen Arbeit sich einzulsen aber es scheint zu funktionieren. Er meinte beim Ausfall dauert es halt bisschen bis sich alles wieder fängt / neu ausverhandelt wurde
  9. O

    Monitoring ceph with Zabbix 6.4

    Hy Stephan! Sorry, I did not have time to get ceph Template work with Proxmox. Think the problem is, that the manager reports via Ceph-Network which will not routed to our zabbix server. For a global overview this schould be ok. Every Node have this info, no need to know about the managers *...
  10. O

    Ceph Netzwerk

    Hy Aaron Danke für den Tipp Hab schon unsren Netzwerkexperten gebeten bei Microtik nachzulesen Ich melde mich wenns Neuigkeiten gibt
  11. O

    Ceph Netzwerk

    Hy Danke für die Info, so in der Art habe ich mir das auch gedacht. In diesem Fall handelt es sich um 2 Microtik Switche, ich schau ob ich was finden kann wie sich diese beim Ausfall ISL verhalten.
  12. O

    Ceph Netzwerk

    Hallo an alle! Ich darf mal eine Frage bez Ceph Netzwerk und Ausfallsicherheit anfragen bei welcher die Verbindung zwischen den Switches nicht redundant ist Gegeben sind 2 Switch welche mit 1x 100GBit verbunden werden. Ceph und Frontend sollten mit je einem 25Gbit im LACP Bond an die Switches...
  13. O

    Monitoring ceph with Zabbix 6.4

    Hy Gurupert! Thanks for help! I had already testet this , but always I got error mgr.server reply reply (1) Operation not permitted More see: https://forum.proxmox.com/threads/ceph-zabbix-send-fehler-nach-update-auf-pve-6-1.61968/ Second problem the "ceph zabbix sender" use the Ceph Network...
  14. O

    Monitoring ceph with Zabbix 6.4

    Hy to all!! Does anybody know if the zabbix template "Ceph by zabbix agent2" V6.4 is working with ProxmoxVE? As I can see the templates uses Ceph API to collect data. Authenticated via Ceph User,API Auth Key and URL https://<server>:8003 . If Ceph API isn't aktive, is it save to enable it? How...
  15. O

    NFS doesn't remount automatically after turn on or restart the NAS

    thanks a lot limone (2017) Had the problem, unmount and wait solved the problem!!
  16. O

    PBS mit gr Datastore

    Hy Erst mal danke für eure Unterstützung und sorry ich habe mich missverständlich ausgedrückt. Mit Disks waren SSD Disks gemeint, also sollte ich mit der Performance kein Problem haben. Aber welches ZFS Layout hierfür das beste ist kann ich leider nicht sagen. Natürlich ist Raíd10 am besten...
  17. O

    PBS mit gr Datastore

    Hy Leute! Ich werde mal wieder um ein System gebeten welches ich noch nie "gebaut" habe. Hoffe auf etwas Feedback euerseits da ZFS Sizing nicht meine Stärke ist. Es sollte alles von Vmware, Veeam weg migriert werden. Der San Cluster sollte durch ein Cephcluster ausgetauscht werden...
  18. O

    Ehemaliger SM Mist gebaut.. bitte um Hilfe!

    Interessante Geschichte. Bisschen weiterhelfen werden wir schon können, wobei das Root PWD schon recht Klasse wäre. Auf die schnelle hab ich das gefunden wobei ohne Backup der VM u Test fürs Rücksetzen würde ich das nicht durchführen https://www.youtube.com/watch?v=4s22pqfgu1c
  19. O

    Replikation von ceph auf zfs

    Hallo Aaron! Danke für deine Unterstützung. Denke mit einem der beiden Methoden sollte es möglich sein. Da ich den Kunden recht wenig kenne kann ich auch wenig zum Verhalten der VM sagen. (Was ich weiss ist, dass noch eine gr SAP Maschine drauf ist.) Ich werde das mal mit dem Kunden...
  20. O

    Replikation von ceph auf zfs

    Hallo Anbei eine andere Idee, Hat jemand Erfahrung ob es möglich ist, 2 Cluster mit Ceph und 2 Pools zu erstellen und diese gegenseitig zu replizieren [0] Könnte es hier bei PVE Updates zu Problemen kommen? Oder wäre es besser 1 Hauptcluster auf welchen die prod VM laufen sowie ein weiteren...