Search results

  1. M

    opnsense VM und routing

    Hallo zusammen ich habe es zum Laufen bekommen. Mit VLAN und mit RA. ich habe folgenden Setup: vom Modem geht es zum Switch Port 1, dieser ist dem VLAN 10 zugeordnet der Switch Port 8 ist der Trunk alle anderen Ports sind dem VLAN 100 zugeordnet (da man ja das default VLAN 1 nicht verwenden...
  2. M

    opnsense VM und routing

    kannst du mir das genauer erklären?
  3. M

    opnsense VM und routing

    Danke, habe das ausprobiert. Immerhin ignoriert Proxmox jetzt die Router Advertisements, die auf vmbr0 rein kommen; aber auf vmbr1 sollten router Advertisements von meinem opnsense kommen, die ignoriert er leider auch, d.h. mein Host hat immer noch keine IPv6 Konnektivität. here: root@pve0:~#...
  4. M

    opnsense VM und routing

    Hallo allerseits ich wollte den billigen Router von meinem ISP durch etwas gutes ersetzen. Ich habe Glasfaser und IPv4/v6 dual stack. Ich kann den Router leider aufgrund von GPON nicht ersetzen, aber immerhin konnte ich ihn in den bridge mode setzen, sodass er ungefiltert alles durch lässt...
  5. M

    zfs or pveperf changes or bug? FSYNC dropped by 50%

    My pool is at the moment ~2.5TB out of 12TB total usage, so I would say this is almost like empty, no? also previously, when I had 12K FSYNCs, the pool was at the same usage. Another indicator that this is not related to the pool usage is that, on my SSD only pool, I also had 12K FSYNCs, with...
  6. M

    zfs or pveperf changes or bug? FSYNC dropped by 50%

    Yeah I also don't care too much about the BOGOMIPS. And of course I also don't notice the difference between 12K FSYNCs and 6K FSYNCs. I am just wondering why this is happening, at least it is an indicator that *something* changed, and I want to know what changed. Is it the calculation of the...
  7. M

    zfs or pveperf changes or bug? FSYNC dropped by 50%

    hmm I notice that I have still CPU BOGOMIPS 108000 like before, so that didn't change. I have a 12 core 24 Thread Xeon 4310. What CPU do you have and what BOGOMIPS? At least I am happy to read I am not the only one observing such a thing. However I can really not say for sure when this...
  8. M

    zfs or pveperf changes or bug? FSYNC dropped by 50%

    good day, unfortunately, I cannot yet with 100% confidence say since when this issue arised. But certainly since the last week (~5th May). There have been a couple updates since then, obviously *something* changed with ZFS or with pveperf or with PVE itself. What did I observe? So far I...
  9. M

    Grub Error during boot after installing Proxmox

    Hi, I installed Proxmox on a new machine. I did the manual installation according to the guide here https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_12_Bookworm Before I installed Proxmox, I did a basic Debian install from an USB drive using the debian-netinst. I used automatic...
  10. M

    Proxmox Bug oder ZFS Bug oder Feature?

    Hallo, ich habe folgende Beobachtung gemacht, und ich wüsste gern, ob das so korrekt ist, ob es ein Bug ist und wenn ja ob es ein ZFS oder Proxmox Bug ist. Ich habe folgenden Pool erstellt: # zpool status pool: tank state: ONLINE config: NAME STATE READ WRITE CKSUM tank...
  11. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    OK ja das wäre sinnvoll. Ich dachte, vielleicht kann man irgendwie steuern, ob der ZIL doch auf die SSD kommt, wenn man special_small_blocks irgendwie richtig setzt. Sind die 4500 ein guter Wert für die fsyncs/second oder ist da noch Luft nach oben? was hat dein Setup? kann ich es irgendwie...
  12. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    jup. Das ist mir klar. Danke trotzdem für die Erklärung. Was passiert, wenn ich ein Zvol habe und die special small blocks auf >=16K setze - wo liegt der ZIL in diesem Fall?
  13. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    Ja, den fsync benchmark habe ich mit dem ZFS Pool gemacht: pveperf /tank/ sind denn die 4500 ein guter Wert? wie hoch kann man da kommen? bin ich systembedingt limitiert weil ich SAS habe anstatt nvme? diesen Satz habe ich leider nicht verstanden.
  14. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    Hallo, so ich konnte endlich ein paar Tests machen. Ich habe mal den Pool wie oben gezeigt konfiguriert, d.h. mit den Ultrastar HDDs habe ich einen Mirror gemacht. Mit den HUSSL4040 habe ich den ZFS Special Device realisiert und mit den S842 habe ich den SLOG realisiert. Jeweils zum Testen nur...
  15. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    ich habe da von dem sg_format Programm gelesen. Ich bin mir im Moment nicht sicher, ob ich für diese doch eher älteren SSDs noch die Verwaltungstools finde :-/ sagt dir das was, sg_format?
  16. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    nein. Der ashift muss zu den Disks passen, die Disks stellen sich nicht ein sondern haben die fixe Sektorgrösse, die bei einigen Disks durch "low level format" in Grenzen geändert werden kann. Benutzt man den falschen ashift, dann tritt "write amplification" auf. Zb. bei ashift=12 aber...
  17. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    Nein. Das ändert nur den ashift. Die Blockgrösse, die die SSD hat,512/520/528/4k ist von zpool völlig unabhängig.
  18. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    Hmm ja das 4K special_small_blocks könnte man natürlich in Erwägung ziehen. Damit habe ich keine Erfahrung; ein special device mit special_small_blocks=0 hat aber gut funktioniert und gute Performance gebracht. Ah ja, danke für den Tip, ich habe erst jetzt gesehen, dass ich auch ein einzelnes...
  19. M

    ZFS Pool mixed SSD/HDD: VMs/LXC nur auf SSD

    Hallo, Endlich habe ich Gelegenheit, meinen Heim-Bastelserver zu erneuern, was ich schon lange tun wollte. Ich habe eine grössere Menge WD Ultrastar DC HC530 geschenkt bekommen (BJ 2019 und SMART ist OK). Ausserdem habe ich noch für sehr kleines Geld woanders ein paar SSDs bekommen, mit nur um...
  20. M

    ZFS Layout

    Das Tape ist über 10 GBit angebunden und hat einen vorgelagerten SSD Puffer. Der Speed wäre also ansich eigentlich OK, aber die Bandbreite teilen sich halt u.U. mehrere Nutzer. Für den "heissen" Dataset, wo die Projekte liegen und die User täglich damit arbeiten, dauert ein Vollbackup ca. 2...