Um das technisch zu untermauern: Proxmox verwendet für das Backup QEMU-seitige dirty-bitmaps. Der Hypervisor trackt geänderte Blöcke im Arbeitsspeicher, völlig unabhängig vom darunterliegenden Storage.
Dein OceanStore muss also gar keine...
Hallo @lethuer,
anhand deines Screenshots lässt sich der Backup-Fehler (reached threshold) gut erklären:
Du hast eine massive Überprovisionierung (Overprovisioning) vorliegen.Dein Speicher-Pool (data) ist physikalisch nur <80,24 GB groß.Du hast...
Hallo @Impact,
da schließe ich mich an. @benteNK, da dein System nun auf den "Trixie" (Proxmox 9 Basis) Repositories läuft, sind die alten "Bookworm" (Proxmox 8) oder gar "Bullseye" Listen technisch obsolet und können entfernt werden. Dass du...
Hallo @news, das ist der entscheidende Punkt. Die ST4000LM024 nutzt SMR (Shingled Magnetic Recording).
@jan-t: Solltest du ZFS (oder RAID) unter Proxmox nutzen wollen, ist diese Platte absolut ungeeignet. SMR führt bei ZFS-Schreibvorgängen...
@little_endian, dein Fehlerbild unterscheidet sich technisch vom ursprünglichen Post (bei dir wird der Host-Prozess /usr/bin/lxc-start blockiert, nicht ein Dienst im Container). Bitte erstelle dafür einen eigenen Thread und poste dort den Output...
Hi,
danke für den Fehlerbericht! Ich kann das Problem nachstellen, wenn insecure Migration benutzt wird und werde es mir anschauen. Als (temporäre) Lösung bis das Problem behoben ist, könntest Du auf secure Migration umstellen oder ein...
Hallo @news,
ergänzend zu deinen Hinweisen bzgl. VRM und Netzteil (#23):
Der in #17 genannte Mix aus Kingston DC600M (Enterprise) und WD Red SA500 (Consumer) ist für ZFS kritisch. Die Consumer-SSDs werden die Performance des gesamten Pools bei...
@mr44er, da bin ich ganz bei dir – die Ressourcenaufteilung funktioniert in der Regel dynamisch, solange der Treiber mitspielt.
@xenon96 Als wichtige Ergänzung für dein geplantes Strix-Halo-Setup: Das von @Keugon beschriebene Problem in #9 („nur...
Wie @Falk R. schon schrieb, ist NAT hier die richtige Lösung, um die MAC-Problematik bei Hetzner zu umgehen. Das Problem in deiner aktuellen Config sind zwei kleine Details:
Falsches Interface im NAT: Deine öffentliche IP und das Routing liegen...
Hallo @micha79,
die Fehlermeldung "no DRM render node detected" deutet darauf hin, dass der Proxmox-Host selbst die iGPU (Intel UHD 730) nicht korrekt anspricht bzw. keinen Render-Node unter /dev/dri/ bereitstellt.
Für VirGL ("virtio-gl") ist...
Hallo @bluesite,
da stimme ich dir absolut zu. DS-Lite ist dank der DERP-Relays (NAT Traversal) von Tailscale in der Regel kein Hindernis und funktioniert meist "out of the box".
@Scplayer, dass du die Tailscale-IPs untereinander nicht pingen...
Hallo @timmen,
hier ein paar konkrete Punkte zu deiner Planung, speziell zum Sizing und den Switches:
1. MikroTik & MLAGJa, die CRS520 unterstützen MLAG (Multi-Chassis Link Aggregation). Das Feature ist ab RouterOS v7 für die...
Hallo @Manaburner,
Das Feature "Snapshots as volume chains" für LVM ist auch in PVE 9.1 weiterhin als Technology Preview markiert. Es ist für den produktiven Einsatz nicht empfohlen, da es noch bekannte Probleme gibt (z. B. extrem langsame...
Hallo @Marceldrzal,
die Meldung Not booted with EFI ist meist harmlos, sofern die VM auf der Synology im Legacy-Modus läuft.
Der Hinweis Operation was interrupted deutet jedoch darauf hin, dass der Paket-Manager durch den vorherigen...
Hallo @fpausp,
bitte kopiere den vollständigen Output des Tasks als Text (in Code-Tags) hier hinein.Zeige uns zudem bitte die Berechtigungen des Datastores mittels ls -la /pfad/zum/datastore, da hier vermutlich die Schreibrechte für den User...
Hallo @moxprox25,
dass der Fehler von A1 auf G1 "wandert" und es sich um Uncorrectable ECC bei einem neuen System handelt, spricht sehr stark gegen defekten RAM und eher für ein Kontaktproblem im Signalweg (Mainboard/CPU).
Bei EPYC SP5-Systemen...
Hi @bbx1_,
Your output shows the core problem: the frr.service was inactive.
The status output also shows the service is disabled (Loaded: ...; disabled; ...), which is why it did not start automatically after you rebooted the nodes.
You...