Search results

  1. Ingo S

    Ceph spinnt nach host reinstall

    Also für mich sieht es so aus, also ob Ceph auf dem neuen Node gar nicht richtig eingerichtet ist... Wie kann das sein? root@vm-6:/etc/ceph# ceph-volume lvm prepare --bluestore --data /dev/sda --block.wal /dev/nvme0n1p1 --block.db /dev/nvme0n1p1 Running command: /usr/bin/ceph-authtool...
  2. Ingo S

    Ceph spinnt nach host reinstall

    Ich dussel... ich hab falsch verlinkt und vergessen, die Berechtigungen zu setzen... :rolleyes:
  3. Ingo S

    Ceph spinnt nach host reinstall

    Nein, der Node wurde nicht neu gestartet. Es gab auch keine Aufforderung dazu. Meines wissens nach, war das in der Vergangenheit auch nie nötig. Hmm... root@vm-6:/# ls -ahl /etc/ceph/ total 16K drwxr-xr-x 2 root root 4.0K Dec 2 14:15 . drwxr-xr-x 89 root root 4.0K Dec 2 11:48 .. -rw-------...
  4. Ingo S

    Ceph spinnt nach host reinstall

    Nein... root@vm-6:/# ls -ahl /etc/ceph/ total 12K drwxr-xr-x 2 root root 4.0K Dec 2 10:58 . drwxr-xr-x 89 root root 4.0K Dec 2 11:48 .. -rw-r--r-- 1 root root 92 Aug 9 14:41 rbdmap root@vm-6:/# Warum wurde die nicht bei der Einrichtung über die GUI angelegt bzw. verlinkt? Ich rieche da...
  5. Ingo S

    Ceph spinnt nach host reinstall

    Moin zusammen Nachdem uns heute leider das Systemlaufwerk eines PVE/Ceph Hosts gestorben ist, habe ich besagten Server aus dem Cluster entfernt, sowohl PVE als auch CEPH. Der Host taucht nirgendwo mehr auf. Nach der Neuinstallation habe ich den Host wieder in den PVE Cluster eingefügt und...
  6. Ingo S

    IP Adressen automatisch der VM zuweisen

    Kurze Nachfrage noch: Funktioniert das lease-renew denn auch noch? Am besten mal testen, in dem du eine kurze Lease-time (z.B. 5min) einstellst. Nicht, das dir nach Ablauf der Lease Time dann dein Netz verfällt.
  7. Ingo S

    IP Adressen automatisch der VM zuweisen

    Ich muss zugegeben, ich hab nicht so die große Ahnung, wie Hoster ihre Netze organisieren. Dann machen die die host-isolation einfach über die Subnetz-Maske? :oops: Das allein dürfte nicht reichen, da ist mit Sicherheit noch in den Switches ne isolation, auf Port-Basis oder via VLAN oder so...
  8. Ingo S

    IP Adressen automatisch der VM zuweisen

    Wie wäre es mit: subnet xxx.xxx.xxx.0 netmask 255.255.255.0 { range xxx.xxx.xxx.11 xxx.xxx.xxx.11; range xxx.xxx.xxx.70 xxx.xxx.xxx.74; range xxx.xxx.xxx.120 xxx.xxx.xxx.123; option subnet-mask 255.255.255.255; option routers XXX.X.XXX.33; option...
  9. Ingo S

    IP Adressen automatisch der VM zuweisen

    Äh ja... Okay. Dann ergibt das tatsächlich etwas mehr Sinn :rolleyes: :p Also um einer VM immer die gleiche IP Adresse zuzuweisen, so dass die IP nicht immer mal wieder zufällig eine Andere aus dem Subnetz ist, sollte man Reservierungen anlegen. Wie das funktioniert hängt vom verwendeten DHCP...
  10. Ingo S

    IP Adressen automatisch der VM zuweisen

    IP Adressen funktionieren IMMER nur in Verbindung mit einer Subnetzmaske. Kein Gerät kann eine IP Adresse "haben" ohne dem Gerät mitzuteilen, wie die Subnetzmaske aussieht. Die Subnetzmaske ist der Schlüssel um aus der IP Adresse Netzadresse und Geräte Adresse zu ermitteln. Ohne funktioniert das...
  11. Ingo S

    RISC-V auf x86 Host emulieren

    Eigentlich wäre es aber eine super Sache, auch andere Architekturen in Proxmox verwenden zu können. Gerade die ARM Plattform wächst zur Zeit stark. Ich könnte mir aber vorstellen, da es eine vom Host-System komplett fremde Architektur ist, bekommt man einen ziemlichen Performance-Hit. Aber für...
  12. Ingo S

    Ceph OSD Prozess spontan gestorben

    Also die SSD ist OK. Keine SMART Error und keine IO Error im Kernel Log. Die SSD ist auch weiterhin unter /dev ansprech- und lesbar. Schreiben habe ich natürlich nicht versucht, ich wollte ja die darauf enthaltenen Daten nicht beschädigen. Nachdem ich den Server leerräumen konnte, habe ich ihn...
  13. Ingo S

    Ceph OSD Prozess spontan gestorben

    Hallo zusammen Gestern hat sich eine OSD spontan aus dem Cluster verabschiedet, ohne defekt zu sein. Der Dienst wurde noch als "running" angezeigt, aber in der Übersicht ist sie als "down" und "out" markiert. Außerdem gibt es für die OSD eine slow ops meldung. Der Kernel hat zu dem Zeitpunkt...
  14. Ingo S

    Advice for Ceph Network for NVME based Server

    Something like this was our plan. We will take appropriate measures against a split brain, if we are at risk to run into such a situation. Nevertheless thx for the advice. Seems to be a nice solution for a disaster-proof Setup. But, this will require double the amount of Servers and storage...
  15. Ingo S

    Advice for Ceph Network for NVME based Server

    Jepp, i know this. We do not have a third location with sufficient connection where we could deploy some servers. The rest of our locations is connected via quite old >10yr OM2 fibre sadly. Not much more than 1G possible... Hmm based on length and lightspeed in an optical fiber (~0.7c) the...
  16. Ingo S

    Advice for Ceph Network for NVME based Server

    Hi Forum We are planning to replace our current 6 node PVE/Ceph Cluster with newer Hardware. Most likely it will be based on full NVME storage, so huge amounts of IOPS and bandwith available. To make use of all the bandwidth, we are looking for a network setup that can keep up with this. Right...
  17. Ingo S

    Images of snapshots don't always get deleted

    Hi forum Today I was doing some cleanup on our Ceph storage and i found that some images of snapshots of some machines are still there while the corresponding snapshot has been deleted long ago. An example is our machine 401: root@vm-1:~# rbd ls -l HDD_Storage [...] vm-312-disk-1...
  18. Ingo S

    Disk speed sehr langsam

    Hmm jaein... Ich glaube nicht, das das so einfach ist. Schließlich hat jeder Datenträger einen mehr oder weniger großen Cache und eine Menge an interne Logik um Schreibzugriffe zu beschleunigen. Klar ist, wenn ich 512B Blöcke absolut random auf ein Gerät schreibe das mit 4K Sektoren arbeitet...
  19. Ingo S

    Disk speed sehr langsam

    Ich komme für unseren Ceph Cluster (den HDD Teil) ebenfalls auf ca 60-80 iops. Was ich aber nicht ganz verstehe, ist der Teil mit der Write amplification. Das macht aus meiner Sicht nur Sinn, wenn ich einen Storage habe, der redundant schreibt, oder z.B. die zu schreibenden Blockgrößen keine...
  20. Ingo S

    Performance

    Hmm also ich dachte bei Passthrough eher daran, das gesamte System so wie es ist, auf eine via Passthrough eingehängte Platte umzuziehen. Dann bleiben alle Pfade gleich also z.B. C:\Programme\Medical Office\FirebirdDB\ oder so ähnlich. Theoretisch müsste das gehen. Da hängst du einen Controller...