Search results

  1. Ingo S

    [SOLVED] Windows-Aktivierung nach Backup-Restore auf anderem Proxmox-Host

    Wenn die ursprüngliche VM als CPU *host* zugewiesen hat und du danach auf dem anderen Host auf kvm64 wechselst, ist das natürlich auch eine andere CPU als auf dem ursprünglichen Host. Wenn auf dem ursprünglichen Host kvm64 eingestellt ist, du ein Backup machst und auf einem anderen Host mit...
  2. Ingo S

    [SOLVED] Server abgestürtzt?

    Sind die Storages wirklich offline? Wie sind die angebunden, via NFS? Falls die offline sind, könnten die die Ursache sein, falls die nicht wirklich offline sind, sondern nur so angezeigt werden, ist das eher Symptom statt Ursache. Achso und es fehlen noch ein paar Angaben: Ist das ein Proxmox...
  3. Ingo S

    [SOLVED] Netzwerkkonfiguration; Frage

    Ein physisches interface kann entweder als normales interface, ODER als bonding slave, ODER als teil einer Bridge verwendet werden. Mehrere "Mitgliedschaften" sind nicht möglich, weil dann der Kernel nicht wissen kann zu welchem virtuellen device der eingehende Traffic gehört. Man stelle sich...
  4. Ingo S

    [SOLVED] Probleme bei der Netzwerkkonfiguration einer virtualisierten pfSense

    Ich kenne mich zwar mit OVS nicht so aus, aber für mich sieht es so aus, als ob an irgendeiner Stelle ein Gateway nicht bekannt ist, oder das die PFSense den antwortenden Traffic blockiert. Meiner Meinung nach wäre es am leichtesten, das Logging auf der PFSense zu aktivieren und zu sehen was auf...
  5. Ingo S

    [SOLVED] ceph zabbix send Fehler nach Update auf PVE 6.1

    Indeed, that solved the problem. I changed the Key ceph.num_pg_wait_backfill to ceph.num_pg_backfill_wait in the Template. A few minutes later the error message was gone. Thx
  6. Ingo S

    [SOLVED] ceph zabbix send Fehler nach Update auf PVE 6.1

    Hallo zusammen Wir haben Zabbix als Monitoring und bislang erfolgreich auch die Ceph Metriken via dem zabbix Modul des Ceph MGR an unser Monitoring versendet. Gestern haben wir von PVE 6.0 auf 6.1 upgedated und seitdem meldet Ceph Failed to send data to Zabbix Manuell erhalte ich folgende...
  7. Ingo S

    Bauvorschlag Rechenknecht

    Ich denke auch, AMD hat da in der gleichen/ähnlichen Preisklasse erheblich mehr Performance zu bieten.
  8. Ingo S

    [SOLVED] .img-Datei in VM einbinden

    schau mal nach ob die Boot Order korrekt ist. VM auswählen -> im mittleren Menü "Options" -> Boot Order Da sollte der virtuelle Anschluss der Platte drin stehen. Z.B. ide, scsi0 o.ä.
  9. Ingo S

    Proxmox mit NAS verbinden/aufrüsten

    Wenn du Daten im Netz bereitstellen willst, dann ist FreeNAS eine gute Wahl. Kann man auch als virtuelle Maschine in Proxmox laufen lassen, ist für deinen Anwendungsfall aber nicht so interessant. Ich würde das tatsächlich so machen wie einige schon vorgeschlagen haben: Für dein NAS brauchst du...
  10. Ingo S

    Ceph - question before first setup, one pool or two pools

    Hence my hint to AMD, since even on their 64 Core (128Thread) flagship, there are only two NUMA Nodes. I Suppose on CPUs with lower core count, this might be even only 1 NUMA Node for eg. 12 Core Systems. But the latter is just my guessing and to be checked beforehand.
  11. Ingo S

    Ceph - question before first setup, one pool or two pools

    Wow, all of this fits into a 1U Server? This setup sounds reasonable. What Controller will you be using for the SSDs? Are you going for an Intel or AMD based system? Just asking because AMD made a big leap in performance and seems very good at performance per buck.
  12. Ingo S

    Ceph - question before first setup, one pool or two pools

    If the OSD is a HDD, you should place DB+WAL on a SSD, since writing to the cluster produces lots of IO to the DB. If the DB is on the HDD OSD, overall Performance will be much less, especially in the case of a recovery, e.g. in case of a HDD failure etc. On our cluster we have one 375GB SSD...
  13. Ingo S

    Ceph - question before first setup, one pool or two pools

    For installing the PVE OS it will be sufficient, if there is enough space in the case, to just put another small SSD in there. We use 32GB Intel Optane SSDs for the OS with an NVME-> PCIe adapter. If your Servers have an onboard M.2 Slot for such a drive, you could use that instead. @Alwin In...
  14. Ingo S

    Ceph - question before first setup, one pool or two pools

    But please be aware that only overall throughput will increase, with the amount of users who access data. Every user will still experience only a data rate that is about equal to single thread performance. I only wanted to make this very clear. I don't know of an option that allows you to...
  15. Ingo S

    Ceph - question before first setup, one pool or two pools

    This is a really difficult task. Ceph reads and writes in parallel and acks when all OSDs have written its copies of that block. That means, if you write a single large file, every single block will be written into an object and assuming you have a 3/2 pool size, this block will get another 2...
  16. Ingo S

    SSD mit proxmox clonen, möglich?

    Kurzer Tip: man kann das Partitionslayout auch mit fdisk ex- und wieder importieren. Ich hab die dazu nötigen Optionen im Hilfe Menü von fdisk mal mit <<<<<------- markiert: root@vm-1:~# fdisk /dev/sda Welcome to fdisk (util-linux 2.33.1). Changes will remain in memory only, until you decide to...
  17. Ingo S

    Ceph - question before first setup, one pool or two pools

    Yeah that does't quite fit. Our Ceph Cluster consists of 4 Nodes with 8HDDs each. We get an average throughput on sequential writes that saturates our 10G Ethernet Link, if you have enough threads. Single Thread Performance is much lower, ~138MB/s Read, ~96MB/s Write with a 16GB file.
  18. Ingo S

    Ceph - question before first setup, one pool or two pools

    This is really interresting. Could you keep me up to date about your performance findings etc. and which HW you used? (SSD Type, Controller Type) Is this Data large chunks (seq. reads) or is it large amounts of random data(rand read)? Im interrested in building a separate SSD Pool for enhancing...
  19. Ingo S

    [SOLVED] WARNING: You have not turned on protection against thin pools running out of space

    Wie viel belegt ist kann man mit lvdisplay <poolname> |grep Allocated herausfinden. Wenn man das in ein Script jagt und die Prozente raus filtert, kann man via Script ab x% eine Syslog Nachricht senden, eine Mail auslösen, oder das Ganze grundsätzlich an ein Monitoring System übergeben wo man...
  20. Ingo S

    [SOLVED] Certain VMs from a cluster cannot be backed up and managed

    Just a quick question: How can we remove the trace pattern config?