Hallo,
ich weiß nicht genau, was da passiert ist. Vielleicht hat ja jemand eine Ahnung und kann mir vor allem für die Vermeidung in der Zukunft hilfreiche Tips geben...
Gegeben ein Ryzen mit 2TB NVMe-SSD für VMs (ZFS), irgendwann mit PVE 7.x eingerichtet (zwei Partitionen, letzte Partition 8MB). Jetzt 9.0.6.
Darauf etliche VMs und LXC (ZVOL+Datasets, einige Snapshots), ich würde sagen, netto 800GB.
Im laufenden Betrieb zeigte der PVE unter Storage/<diese SSD> ungefähr 1,4TB Auslastung an (warum?). Also dachte ich mir, es wäre gut, *rechtzeitig* auf eine größere SSD zu migrieren. So lief das ein paar Monate (inkl. Reboots und Updates).
Gestern habe ich eine 4TB SSD erhalten. Proxmoxhost heruntergefahren, SSD ausgebaut, die neue leere SSD daneben gehangen. Debian 13-VM gebootet, NVMe-Disks durchgereicht. Neuen Pool angelegt.
zpool create -f -o ashift=12 newpool /dev/disk/by-id/<ID>
Snapshot gemacht.
zfs snapshot -r oldpool@20250908
Snapshot rekursiv senden wollen:
zfs send -R oldpool@20250908 | zfs recv -F newpool
Fehlermeldung sinngemäß:
cannot hold | out of space
cannot receive stream
Blick auf den Pool - voll.
Ich weiß von Snapshots, dass sie nur das Delta von einem Punkt zum nächsten speichern. Da müssten innerhalb von 0,5s 400GB zustandegekommen sein, wenn es daran gelegen haben soll. Lange Rede, kurzer Sinn, ich konnte da nichts recovern. Weder mit Klonen der Partition auf die neue SSD und dann Anpassen der Partitionieren (ich konnte wegen keinem Speicher frei ja das Attribut autoexpand=on nicht setzen), noch mit Löschen von Dateien (auch dazu braucht man Speichern), noch Truncate von irgendwelchen Dateien im Dateisystem.
Kann sich jemand einen Reim drauf machen, was da passiert sein könnte? Vor allem - wie verhindert man, dass das wieder auftritt?
(Ich konnte mir mit einer weiteren SSD behelfen, über die ich die Storages von jeder VM auf sie gemoved habe; oldpool habe ich dann weggeworfen (und im worst case hätte ich auch noch ein Backup gehabt))
ich weiß nicht genau, was da passiert ist. Vielleicht hat ja jemand eine Ahnung und kann mir vor allem für die Vermeidung in der Zukunft hilfreiche Tips geben...
Gegeben ein Ryzen mit 2TB NVMe-SSD für VMs (ZFS), irgendwann mit PVE 7.x eingerichtet (zwei Partitionen, letzte Partition 8MB). Jetzt 9.0.6.
Darauf etliche VMs und LXC (ZVOL+Datasets, einige Snapshots), ich würde sagen, netto 800GB.
Im laufenden Betrieb zeigte der PVE unter Storage/<diese SSD> ungefähr 1,4TB Auslastung an (warum?). Also dachte ich mir, es wäre gut, *rechtzeitig* auf eine größere SSD zu migrieren. So lief das ein paar Monate (inkl. Reboots und Updates).
Gestern habe ich eine 4TB SSD erhalten. Proxmoxhost heruntergefahren, SSD ausgebaut, die neue leere SSD daneben gehangen. Debian 13-VM gebootet, NVMe-Disks durchgereicht. Neuen Pool angelegt.
zpool create -f -o ashift=12 newpool /dev/disk/by-id/<ID>
Snapshot gemacht.
zfs snapshot -r oldpool@20250908
Snapshot rekursiv senden wollen:
zfs send -R oldpool@20250908 | zfs recv -F newpool
Fehlermeldung sinngemäß:
cannot hold | out of space
cannot receive stream
Blick auf den Pool - voll.
Ich weiß von Snapshots, dass sie nur das Delta von einem Punkt zum nächsten speichern. Da müssten innerhalb von 0,5s 400GB zustandegekommen sein, wenn es daran gelegen haben soll. Lange Rede, kurzer Sinn, ich konnte da nichts recovern. Weder mit Klonen der Partition auf die neue SSD und dann Anpassen der Partitionieren (ich konnte wegen keinem Speicher frei ja das Attribut autoexpand=on nicht setzen), noch mit Löschen von Dateien (auch dazu braucht man Speichern), noch Truncate von irgendwelchen Dateien im Dateisystem.
Kann sich jemand einen Reim drauf machen, was da passiert sein könnte? Vor allem - wie verhindert man, dass das wieder auftritt?
(Ich konnte mir mit einer weiteren SSD behelfen, über die ich die Storages von jeder VM auf sie gemoved habe; oldpool habe ich dann weggeworfen (und im worst case hätte ich auch noch ein Backup gehabt))
Last edited: