Search results

  1. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Beide sind visualisiert, ja. Quelle: 1 socket, 4 cores, 4 GB ohne ballooning, CPU type kvm64 Ziel: 2 sockets, 8 cores, 8-16 GB (balloning), CPU type host +aes Beider derzeit (leider) nur HDD; bei uns via Ceph, hier wollen wir zukünftig DB/WAL auf NVMe packenm Kunden auf einer Synology via CIFS...
  2. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    So, Schlussmeldung: Ich habe nun den Filter wieder rausgenommen und der Sync ist ohne Fehler durchgelaufen. Ich ging zuerst davon aus, dass es sich um diesen Bug aus 2020 handeln könnte, der evtl. wiedergekehrt ist – aber da der Sync nun um 13:40 Uhr startete und erst nach 17:00 Uhr endete...
  3. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Auch das hat funktioniert: 2023-07-04T12:29:10+02:00: Starting datastore sync job 'xyz:nas:kunden-xyz::s-2e681556-87b9' 2023-07-04T12:29:10+02:00: sync datastore 'kunden-xyz' from 'xyz/nas' 2023-07-04T12:29:10+02:00: ---- 2023-07-04T12:29:10+02:00: Syncing datastore 'nas', root namespace into...
  4. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Ich habe im Sync Job mal testweise einen group filter auf vm/103 eingestellt und der Sync läuft derzeit ohne Fehler. Als nächstes werde ich dann noch vm/102 einzeln testen und mich zurückmelden.
  5. herzkerl

    Feature Request: Ceph Object Gateway Support (via UI)

    I‘d love to use S3 via Ceph! Not having to set up another server for S3-compatible storage (e.g. minIO) would be a nice benefit. I know there’s some unofficial documentation (mainly blog posts that are a few years old)—but having that right within the Proxmox web interface/CLI would be...
  6. herzkerl

    sync group failed - authentication failed - invalid ticket - expired

    Hallo zusammen, leider habe ich nun bei einem Sync-Job (wir syncen derzeit von drei Kunden) auch den im Titel genannten Fehler. Log siehe unten. Im Forum gibt es einige Threads zu diesem Fehler, jedoch beziehen sich die meisten auf einen Bug, der in 2020 gefixt wurde, und andere blieben...
  7. herzkerl

    Best practice bei Ceph und zwei Switches

    UniFi *hust* – es wird Zeit, dass die MLAG können...
  8. herzkerl

    Virtuelle Disks unterschiedlich häufig sichern

    Kurzes Update: Habe jetzt mal zwei NVMe-SSDs in einer Synology beim Kunden und lasse dort zum Spaß noch den SSD-Cache-Ratgeber laufen für eine Woche – der zeigt dann an, wie groß die SSDs sein sollten für das Volume. Es sind 2x 1 TB, somit denke ich, mehr als ausreichend.
  9. herzkerl

    Exchange log files

    Is there any way to run a post backup command/script within a Windows Server running Exchange to truncate the log files after a successful backup?
  10. herzkerl

    ZFS scrubbing bei virtuellem PBS

    Was wäre hier der Vorteil – außer, dass man die Disks dann einzeln auf andere PVE-Datastores verschieben könnte? Das stimmt natürlich, guter Punkt... Meistens lasse ich nur beim Erstellen (also beim Kunden direkt) einen Verify laufen. Dort werden die Backups aber oft auch nicht länger als 30...
  11. herzkerl

    Virtuelle Disks unterschiedlich häufig sichern

    Worauf war das bezogen? Bei den Kunden sind es ja eh i.d.R. Synology NAS, die dann btrfs nutzen via CIFS. Alternativ könnte ich natürlich auch iSCSI verwenden, aber die Konfiguration via CIFS war einfacher – würde aus Performancegründen (mal ungeachtet der Platten) hier iSCSI einen großen...
  12. herzkerl

    Virtuelle Disks unterschiedlich häufig sichern

    Aus der Ceph mailing list (Quelle): Und hier noch via StackExchange (Quelle): Habe dazu früher auch schon immer in Verbindung mit Ceph gelesen, dass man von SSDs ohne PLP die Finger lassen soll und HDDs nur zusammen mit WAL/DB auf NVMe (mit PLP) nutzen soll aufgrund der Thematik. Unsere...
  13. herzkerl

    [SOLVED] Windows Server 2019 boot environment and virtIO

    Within Windows the virtual disk worked without issues (using virtIO), but once the machine rebooted into "automatic startup repair" it didn't see the disks until I changed them to SATA.
  14. herzkerl

    PBS Encrypted Backups und Deduplication

    Habe nun nochmal nachgelesen und kann bestätigen, dass es ein Missverständnis auf meiner Seite ist. Es ist wohl standardmäßig so, dass die nested datasets als maximalen Speicher des Dateisystems immer den aktuell maximal zur Verfügung stehenden Speicher auf dem Pool angeben – außer, es ist eine...
  15. herzkerl

    ZFS scrubbing bei virtuellem PBS

    Also dem virtuellen PBS lieber eine neue virtuelle Disk geben mit ext4, und dann die Datastores umziehen? Dagegen sollte ja aber eigentlich das scrubbing "draußen" dann helfen, oder nicht?
  16. herzkerl

    ZFS scrubbing bei virtuellem PBS

    Wie sinnvoll ist es, das ZFS scrubbing in einem virtualisierten PBS (auf Proxmox VE – in unserem Fall via Ceph, bei unseren Kunden via ZFS) in der VM ebenfalls laufen zu lassen? Da sollte doch von "außen" schon alles soweit passen, dass man sich die Ressourcen dafür sparen kann, oder irre ich mich?
  17. herzkerl

    Virtuelle Disks unterschiedlich häufig sichern

    Wenige TB (irgendwas zwischen 2 und 4)... Günstige QLC SSDs haben i.d.R. keine Power Loss Protection, und afaik sollte man die schon verwenden. Gut, hier geht es nicht um ZFS oder Ceph, sondern eine Synology, da wird das sicherlich nicht sooo dramatisch sein. Und es geht "nur" um Backups, die...
  18. herzkerl

    Ceph-IP laut ARP-Tabelle auch bei vmbr0

    Kurzes Update: Ich hatte die Konfiguration damals ja nur zur Laufzeit geändert. Nun traten aber selbst nach einigen Neustarts (mit default setting arp_ignore=0) keine Probleme mehr auf. Somit scheint das nicht ursächlich gewesen zu sein :)
  19. herzkerl

    PBS Encrypted Backups und Deduplication

    Sorry, hatte den anderen Output vergessen – aus dem oberen wurde gar nicht klar, was ich eigentlich meinte. root@pbs:~# df -h Filesystem Size Used Avail Use% Mounted on ceph-hdd 6.9T 5.6T 1.4T 81% /mnt/datastore/ceph-hdd ceph-hdd/kunde-1...
  20. herzkerl

    PBS Encrypted Backups und Deduplication

    Danke euch für die Links und Informationen. Eine Rückfrage habe ich noch – habe trotz intensiver Suche keine Lösung gefunden (oder nicht die richtige Frage gestellt)... Ich möchte die neuen Datastores auf dem gleichen zpool haben – also habe ich sie als dataset auf dem pool angelegt. Nun ist es...