Hallo liebe Community, falls jemand Hinweise oder eine Idee hat, bitte um Hilfe.
Ich habe einen Server mit Debian Jessie als Hostbetriebssystem. Darauf läuft Proxmox und virtualisiert mir mehrere Linux Server.
Im Proxmox gebe ich zwei physische Festplatten an ein OpenMediaVault NAS.
Diese beide Festplatten wurden im OMV als Mirror ZFS Volume eingerichtet.
Sowohl das Host als auch die VMs liegen in einem LVM auf einer SSD.
Beim Hinzufügen einer neuen VM ist anscheinend der Speicherplatz dem Host ausgegangen.
Die Folge waren IO Errors auf allen VMs und auch im Host.
Durch Löschen der neuen VM konnte das System wieder stabilisiert werden.
Leider hat mein ZFS Volume aber Schaden genommen den ich nicht mehr reparieren kann.
Für mich sieht es aus aus, als wären ZFS Metadaten beschädigt worden.
Der Pool wird nur noch fehlerhaft importiert.
Der aktuelle Status des Systems sieht so aus:
Nach einem 1:1 Image (dd) auf zwei neue Festplatten habe ich auchh versucht die Version auszulesen:
Ich glaube das hat irgendetwas mit featured flag im zfs zu tun.
Komisch ist, auf das Filesystem von Volume-NAS-ALL/camuser habe ich Schreibe und Lesezugriff.
Ein Scrub des Pools läuft ca. 23.1 GB lang, was genau dem belegten Speicherplatzes des camusers entspricht.
Die restlichen 1,11T werden nicht geprüft.
Import -F, Clean -F und scrub haben leider nichts gebracht.
Somit weiß ich leider nicht mehr weiter und wäre für Inputs wirklich dankbar!
LG Michael
Ich habe einen Server mit Debian Jessie als Hostbetriebssystem. Darauf läuft Proxmox und virtualisiert mir mehrere Linux Server.
Im Proxmox gebe ich zwei physische Festplatten an ein OpenMediaVault NAS.
Diese beide Festplatten wurden im OMV als Mirror ZFS Volume eingerichtet.
Sowohl das Host als auch die VMs liegen in einem LVM auf einer SSD.
Beim Hinzufügen einer neuen VM ist anscheinend der Speicherplatz dem Host ausgegangen.
Die Folge waren IO Errors auf allen VMs und auch im Host.
Durch Löschen der neuen VM konnte das System wieder stabilisiert werden.
Leider hat mein ZFS Volume aber Schaden genommen den ich nicht mehr reparieren kann.
Für mich sieht es aus aus, als wären ZFS Metadaten beschädigt worden.
Der Pool wird nur noch fehlerhaft importiert.
Code:
/# zpool import -F Volume-NAS-ALL
unable to fetch ZFS version for filesystem 'Volume-NAS-ALL'
cannot mount 'Volume-NAS-ALL': Die Ressource ist zur Zeit nicht verfügbar
Der aktuelle Status des Systems sieht so aus:
Code:
# zpool status -v Volume-NAS-ALL
pool: Volume-NAS-ALL
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: xxxx://zfsonlinux.org/msg/ZFS-8000-8A
scan: scrub repaired 0 in 0h12m with 3 errors on Sun Apr 14 18:12:17 2019
config:
NAME STATE READ WRITE CKSUM
Volume-NAS-ALL ONLINE 0 0 1
mirror-0 ONLINE 0 0 4
sda ONLINE 0 0 4
sdb ONLINE 0 0 4
errors: Permanent errors have been detected in the following files:
<metadata>:<0x80>
<metadata>:<0x9f>
Volume-NAS-ALL:<0x0>
Code:
# zfs get -r version Volume-NAS-ALL
NAME PROPERTY VALUE SOURCE
Volume-NAS-ALL version - -
Volume-NAS-ALL/camuser version 5 -
Ich habe auch versucht die Version zu ändern:
zfs set version=5 Volume-NAS-ALL
cannot set property for 'Volume-NAS-ALL': Can not downgrade; already at version 4244066400
Komisch ist, auf das Filesystem von Volume-NAS-ALL/camuser habe ich Schreibe und Lesezugriff.
Ein Scrub des Pools läuft ca. 23.1 GB lang, was genau dem belegten Speicherplatzes des camusers entspricht.
Die restlichen 1,11T werden nicht geprüft.
Code:
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
Volume-NAS-ALL 1,81T 1,11T 718G - 30% 61% 1.00x ONLINE -
Import -F, Clean -F und scrub haben leider nichts gebracht.
Somit weiß ich leider nicht mehr weiter und wäre für Inputs wirklich dankbar!
LG Michael
Last edited: