File Restore: Timeout

tmlits

Active Member
Oct 17, 2018
4
0
41
105
Hallo in die Runde,

ich habe hier eine VM, wo der "File Restore" Button der GUI im Timeout abbricht:
1745348650901.png
Ist da zufällig ein Fix oder Workaround bekannt?
 
Du verrätst uns rein gar nichts über deinen PBS. Warum nicht?

Keine Angaben --> reine Spekulation:
ich habe hier eine VM, wo der "File Restore" Button der GUI im Timeout abbricht:
Meine ersten PBS-Instanzen hatten nur Blechplatten. Am Anfang lief das gut. Dann, mit zunehmenden Füllstand, traten Timeouts auf. Ich konnte die Backups nicht einmal mehr auflisten. Stellt sich heraus: die Empfehlungen hinsichtlich "nehmt SSDs!" sind nicht von der Hand zu weisen.

PBS braucht IOPS. Zum Schreiben, zum Verifizieren und auch für ein halbwegs flinkes Restore.

Ich verwende immer noch Blech, als (multiple) Mirrors und immer einem schnellen "Special Device".
 
  • Like
Reactions: Johannes S
Du verrätst uns rein gar nichts über deinen PBS. Warum nicht?
Du hast absolut recht. War keine böse Absicht. Die PBS-Instanz läuft als Offsite-Backup, täglich; 64.26% (32.04 TB of 49.85 TB) used im betreffenden Datastore, der als ZFS-10 Mirror angelegt ist, bestehend aus 12T SAS Spindelplatten.
Backup, Validierungen, etc. pp. laufen für alle VMs im Cluster sauber durch, Recoveries sind getestet und funktionieren auch für alle datasets (mit entsprechendem Zeitaufwand). Einzig allein die "File Restore"-Funktion vom PVE laufen ins Timeout, wenn das gebackuppte Volume ein paar TB groß ist. Link zwischen den Systemen ist 1G symmetrisch.

In der Backup-Kiste steken 32CPUs und 265GB RAM. ZFS Arc war jetzt im Monitoring auch nicht wirklich auffällig, im Gegenteil, der dreht eher Däumchen und liest sich nach deutlicher Überdimensionierung, da RAM nicht ansatzweise ausgeschöpft...
 
Last edited:
Du hast absolut recht. War keine böse Absicht. Die PBS-Instanz läuft als Offsite-Backup, täglich; 64.26% (32.04 TB of 49.85 TB) used im betreffenden Datastore, der als ZFS-10 Mirror angelegt ist, bestehend aus 12T SAS Spindelplatten.
Backup, Validierungen, etc. pp. laufen für alle VMs im Cluster sauber durch, Recoveries sind getestet und funktionieren auch für alle datasets (mit entsprechendem Zeitaufwand). Einzig allein die "File Restore"-Funktion vom PVE laufen ins Timeout, wenn das gebackuppte Volume ein paar TB groß ist. Link zwischen den Systemen ist 1G symmetrisch.

In der Backup-Kiste steken 32CPUs und 265GB RAM. ZFS Arc war jetzt im Monitoring auch nicht wirklich auffällig, im Gegenteil, der dreht eher Däumchen und liest sich nach deutlicher Überdimensionierung, da RAM nicht ansatzweise ausgeschöpft...
CPU und RAM wird dir da nicht helfen, die Spindeln liefern einfach die Metadaten nicht schnell genug. Hättest du ein schnellen Special Device Mirror vor deinen HDD Pool geklemmt, würde das vermutlich sauber und deutlich schneller laufen.
Wenn du aber jetzt ein Special Device hinzufügst, werden nur die Metadaten, der neuen Daten da drauf geschrieben.
 
  • Like
Reactions: Johannes S
Wenn du aber jetzt ein Special Device hinzufügst, werden nur die Metadaten, der neuen Daten da drauf geschrieben.

Wobei das sich über einen zfs send/receive Lauf lösen lassen sollte, da gab es mal was im Forum zu. Habe gerade lahmes Zug-Internet, darum kann ich das nicht raussuchen.
 
Last edited:
Wobei das sich über einen zfs send/receive Lauf lösen lassen sollte, da gab es mal was im Forum zu. Habe gerade lahmes Zug-Internet, darum kann ich das nicht raussuchen.

Google hat geholfen:





https://www.google.com/search?q=special+device+zfs+send+receive+site:forum.proxmox.com
 
  • Like
Reactions: Falk R. and UdoB