Search results

  1. B

    Backup Script für configs & rpool zfs snapshot

    Cooles Projekt, danke fürs Teilen! Pull-basiert über SSH ist ein sauberer Ansatz, und dass die Retention gleich mit drin ist, macht es rund. Werd ich mir mal genauer anschauen.
  2. B

    SFP+ optic incompatible

    Bei den Emulex/OneConnect Karten sitzt die Optic-Validierung leider in der Firmware, nicht im Treiber. Da gibts kein einfaches modprobe-Flag wie bei Intel mit allow_unsupported_sfp. Dass es beim Installer ging ist komisch, evtl wurde da der Treiber anders geladen oder die Firmware-Prüfung...
  3. B

    zu wenig Speicherplatz?

    @artex, du musst die Befehle als root ausführen. Entweder mit sudo su - erst eine Root-Shell holen oder sudo du -shc /* | sort -h nutzen. Auf der Proxmox-Shell (WebGUI > Node > Shell) bist du automatisch root.
  4. B

    ACME-Zertifikat auf Fritzbox hochladen

    Die ACME-Integration in PVE ist nur für das Webinterface-Zertifikat gedacht, deploy-hooks sind da nicht mit drin. Am einfachsten: acme.sh standalone in nem LXC installieren und da wie gewohnt mit den deploy-hooks arbeiten. Dann hast du den ganzen Funktionsumfang inkl. --deploy -d example.com...
  5. B

    Bester Weg Datenrettung Raid & ZFS unter PM

    Synology nutzt unter der Haube ganz normales Linux-mdadm, sollte also gehen. Erstmal checken, was die Platten haben, direkt auf dem PVE-Host: mdadm --examine /dev/sdX (für jede der 4 Platten einzeln durchgehen) Bist du sicher, dass es RAID0 war? Wär bei ner Synology eher ungewöhnlich, meistens...
  6. B

    [SOLVED] Verschlüsseltes Volume vergrößern

    Das Problem ist, dass sda5 in der Extended Partition sda2 steckt, und die ist noch auf 99G. Du musst erst die Extended vergrößern, dann die Logical, dann LUKS + LVM anpassen: growpart /dev/sda 2 growpart /dev/sda 5 cryptsetup resize sda5_crypt pvresize /dev/mapper/sda5_crypt lvextend -l...
  7. B

    [SOLVED] Netzwerkverbindung von Gastsystem (Debian 11) unterbricht nach Abmeldung in Konsole

    Das ist wahrscheinlich NetworkManager, der das Interface nur aktiviert, wenn jemand eingeloggt ist. Typisches Ding bei VMs, die von ESXi rübermigriert werden. Check mal ob NM läuft mit systemctl status NetworkManager. Wenn ja, am einfachsten auf klassisches ifupdown umstellen: trag das...
  8. B

    Planung und Fragen Umbau des Systems

    Moin, Hardware ist okay, aber 16GB könnten eng werden wenn du NAS-VM, Omada, ioBroker und noch nen Mail-Archiver drauf packen willst. Schau mal ob das CWWK Board 32GB kann, würd ich direkt machen. Als NAS-Software in ner VM: OpenMediaVault. Schlank, reicht für deinen Use Case locker. ASM1166...
  9. B

    Disks LVM 100%

    Die roten Balken zeigen nur dass die VG komplett dem ThinPool zugewiesen ist, das ist erstmal nicht schlimm. Solange im ThinPool selbst noch genug Platz frei ist, läuft alles normal. Für Updates (8→9) ist eher der Platz auf der Root-Partition relevant, nicht im VM-Storage. Check mal mit lvs -a...
  10. B

    OpenWRT-Gateway Failover per VM

    Doch, schau nochmal genau: bei || reicht es wenn eine Seite wahr ist. Wenn FORCEFAILOVER == 0 (also Normalzustand), ist die linke Seite schon wahr, damit ist die ganze Bedingung wahr, egal was MASTERGWUP sagt. Der Master-GW-Check wird zwar ausgewertet, ist dann aber egal für das Ergebnis. Mit...
  11. B

    Cluster total ausfallsicher gegen Brand etc.

    Ja stimmt, guter Punkt. Wenn man nicht grad nen identischen Node auf Lager hat kann das schnell Tage oder Wochen werden bis was geliefert wird. Nen kleinen Standby-Node im zweiten Brandabschnitt vorhalten der im Normalfall idle ist (oder leichte Workloads macht) und im Ernstfall die kritischen...
  12. B

    Langsame 4k Performance in Windows 11 VM

    Stimmt, da hast du recht. Ohne sync testet man primär den Writeback-Cache, nicht die NVMe direkt. Hab mich da zu kurz gefasst.
  13. B

    OpenWRT-Gateway Failover per VM

    OK, dann passt das mit dem && erst recht. Deine Beschreibung ("wenn 0, nur bei aktivem Master zurückschalten") ist genau die &&-Logik. Mit dem || im aktuellen Script würde er auch recovern wenn der Master noch down ist, solang FORCEFAILOVER auf 0 steht.
  14. B

    [Coding] PVE.data.ResourceStore.reload() gibt mir alte Daten

    Cooles Projekt, das kannte ich noch nicht! Und was @dcsapak sagt bzgl. upstream würde ich auf jeden Fall überlegen, gerade sowas wie zusätzliche Spalten im Tree wäre super.
  15. B

    Langsame 4k Performance in Windows 11 VM

    Die 69k IOPS ohne --sync=1 zeigen, deine NVMe sind völlig in Ordnung, da ist nix kaputt. Das Problem ist spezifisch der sync-Write-Pfad durch den ZIL auf RAIDZ1.
  16. B

    Debian Cloud-Init VM - Zeit Problem

    Das ist in der Regel harmlos. Passiert bei Cloud-Init Images häufig, weil die VM erstmal mit der RTC-Zeit hochkommt und dann systemd-timesyncd (oder chrony) die Zeit korrigiert. Journald merkt den Sprung und rotiert die Logs, das wars.
  17. B

    [SOLVED] VM Failback mit cloudinit und ZFS Replikation schlägt fehl

    Das Problem steht in der Fehlermeldung: volume 'zfs2/vm-101-cloudinit' already exists. Beim Failover auf den anderen Node bleibt das alte Cloudinit-Volume auf n2 liegen. Wenn die VM dann zurück migriert werden soll, versucht er das Cloudinit-Image rüberzuschicken, aber da liegt noch das alte...
  18. B

    [SOLVED] Verdammte Hecke, wohin ist der Fingerprint beim PBS verschwunden?

    Das ist im PBS Dashboard direkt angezeigt, oben. Oder auf der Shell: proxmox-backup-manager cert info Da steht der Fingerprint dabei. Am einfachsten ist aber: auf der PVE-Seite beim Hinzufügen des PBS-Storages das Fingerprint-Feld einfach leer lassen, auf "Add" klicken, und dann zeigt dir PVE...
  19. B

    Änderung ZFSRAID

    Ja, das lässt sich fixen. Da es ein reines Daten-RAID ist, geht das relativ einfach: Pool exportieren und wieder importieren. Beim Import löst ZFS die Device-Namen neu auf und nimmt dann die by-id Pfade. Erstmal die by-id Bezeichnung der neuen Platte raussuchen: ls -la /dev/disk/by-id/ | grep...
  20. B

    Tape-Backup für Anfänger

    Gute Frage. Das Problem mit "continue" + "keep" auf Dauer ist genau das was du beschreibst: die Abhängigkeit vom ersten Tape wächst immer weiter, weil alle späteren Inkremente auf den Chunks vom ersten Backup aufbauen. Zwei bessere Optionen: Du könntest bei der Allocation Policy auf "always"...