Recent content by donrusso

  1. D

    VM mit NIC passthrough,VPN, L2 Bridge

    Ich möchte schon mit dem Kunden LAN verbunden sein. Die neue Maschine soll vollständig deployed werden und später nur noch vor Ort angeschlossen und gebootet werden. Eine richtige Firewall habe ich auch schon in Betracht gezogen, diese müsste ich auch auf beiden Seiten einrichten. Den Aufwand...
  2. D

    VM mit NIC passthrough,VPN, L2 Bridge

    Ich möchte gerne Maschinen für eine bestimmtes LAN „entspannt“ bei mir aufsetzen damit ich sie später beim Kunden, einfach physikalisch verbaue und alles direkt läuft. Ich hatte früher mal eine FRITZ!Box zu FRITZ!Box S2S VPN Verbindung, dort war es möglich einen der fünf FRITZ!Box Ports als...
  3. D

    [SOLVED] zpool, raid, SFF bay, HPE caddy

    Habe den Fehler gefunden: https://forum.proxmox.com/threads/multiple-pool-named-rpool-after-clean-install.63151/ Es waren noch "Überbleibsel" vom vorheriger PVE Installation auf den zusätzlichen Platten. Die ich zusätzlich reingesteckt habe. Zwei "rpool" hat das Proxmox beim booten gesehen...
  4. D

    [SOLVED] zpool, raid, SFF bay, HPE caddy

    ...habe ich noch nicht probiert. Was könnte denn passieren ?
  5. D

    [SOLVED] zpool, raid, SFF bay, HPE caddy

    Danke fürs Antworten. Ich hatte ja von Anfang an nichts drauf. Formatiert und "gewipet" habe ich auch schon. Verstehe ich nicht. Vielleicht ist es der EFI Boot, wo die Platten eingehängt werden. Boot0015*-17* root@pveXXX:/boot/pve# efibootmgr BootCurrent: 0011 Timeout: 0 seconds BootOrder...
  6. D

    [SOLVED] zpool, raid, SFF bay, HPE caddy

    Jup, die dritte Platte im Bay 5 leuchtet, verstehe nicht wieso. Habe heute sogar ein raidz1 drüber gezogen und wieder gelöscht. Anschließend im PVE wieder formatiert.
  7. D

    [SOLVED] zpool, raid, SFF bay, HPE caddy

    Moin zusammen, ich habe hier ein kurioses Problem: Ich habe einen HPE ML110 G10 mit fünf SSD's bestückt. Auf die ersten beiden SSD habe ich Proxmox installiert. Als Filesystem habe ich zpool gewählt. Cluster Join und gut ist. Nun wollte ich mit den restlichen drei noch einen anderen Proxmox...
  8. D

    PVE cpu Ressourcen Windows11 vs. WindowsServer2019

    Danke für's Vergleichen ! Hat mich weiter gebracht. Die Einstellungen: machine: pc-q35-8.1 -> machine: pc-q35-9.0 scsihw: virtio-scsi-pci -> scsihw: virtio-scsi-single sind angepasst, bzw. waren in einer ähnlichen PVE umgebung auch so. War also nicht ausschlaggebend. vga: virtio -> vga...
  9. D

    PVE cpu Ressourcen Windows11 vs. WindowsServer2019

    root@pve1:~# head /proc/pressure/* ==> /proc/pressure/cpu <== some avg10=0.00 avg60=0.00 avg300=0.00 total=17812995365 full avg10=0.00 avg60=0.00 avg300=0.00 total=0 ==> /proc/pressure/io <== some avg10=0.00 avg60=0.00 avg300=0.00 total=2660999550 full avg10=0.00 avg60=0.00 avg300=0.00...
  10. D

    PVE cpu Ressourcen Windows11 vs. WindowsServer2019

    Moin zusammen, ich beobachte, dass die Windows11 Pro Gäste viel mehr CPU Last erzeugen. Anbei ein screenshot eines PVE Nodes mit 3xWin11, 3xSRV19 und 1xDC (UCS). Auf den Windows 11 Gästen ist nicht einmal ein User eingeloggt! Warum ist das wohl so? Habe die Windows Gäste nach den aktuellen best...
  11. D

    Mehrere Windows 10 Sitzungen

    *RDP Wrapper* nutzt offenbar den gleichen Mechanismus wie TSplus, ist aber open source! Hat da jemand Erfahrung?
  12. D

    RAID5 PMssd VS. RAID10 EVOssd

    https://forum.proxmox.com/threads/2-node-cluster-with-the-the-least-amount-of-clusterization-how.140434/post-628650 Genau, danke für die Erklärung. Also Speed nur mit PLP. Redundanz muss dann jeder selber wissen...
  13. D

    RAID5 PMssd VS. RAID10 EVOssd

    Danke für die stoische Einschätzung. Ehrlich gesagt fehlt mir hier auch die Fall Unterscheidung. Es ist normaler produktiver Office Betrieb mit Samba, SQL, Domäne, und ein paar Client VMs. A, ..., E ? Drastisch hört sich wirklich gut an. Die Mitarbeiter möchten natürlich, dass alles schnell...
  14. D

    ZFS raid 10, SSD's tauschen

    Jep :-) die DC500R's habe ich auch im Auge.