Proxmox ZFS entfernt - Paperless-Daten weg?

earmuff4839

New Member
Sep 12, 2024
14
0
1
Hallo zusammen,
absoluter Newbie was Proxmox angeht. Folgende Ausgangslage: Ich habe mir Proxmox eingerichtet, v.a. um Paperless zu nutzen. In meinem Fujitsu Q556/2 habe ich eine 1TB NVME eingebaut, darauf Proxmox installiert und eine interne SSD mit 128 GB habe ich als ZFS angelegt (alles stumpf nach Anleitung ohne verstanden zu haben, wie ZFS funktioniert). Paperless mit Docker habe ich ebenfalls nach Anleitung angelegt, hat auch alles mehr oder weniger gut geklappt, irgendwann lief es wie es sollte.

Nun kam ich auf die glorreiche Idee, zwei externe Platten zum ZFS-Pool hinzuzufügen mit dem Gedanken, je mehr Redundanz desto besser. Im laufenden Betrieb konnte ich die ZFS nicht ändern, also über die Proxmox GUI meinen Knoten Rechenzentrum--> "proxmox"-->Disks-->ZFS-->Pool "ZFS-Pool" entfernen das aktuelle ZFS (die SSD mit 128GB) gelöscht. Meine Vorstellung war, dass die tatsächlichen Daten eh auf der NVME liegen und die ZFS ja nur für das Mirroring zuständig ist. Also sollte man das ja problemlos löschen können und anschließend einen neuen ZFS-Pool inkl der externen Platten anlegen können.

Langer Rede kurzer Sinn: Starten kann ich den Paperless-Knoten jetzt nicht mehr: "TASK ERROR: storage 'ZFS-Pool' does not exist". Ich hoffe einfach nur, dass die Daten noch auf der NVME vorhanden sind. Das erneute Anlegen des ZFS-Pools funktioniert, aber das Starten des Knotens nicht "TASK ERROR: zfs error: cannot open 'ZFS-Pool/subvol-100-disk-0': dataset does not exist".

Proxmox könnte ich neu aufsetzen, aber die Paperless-Daten würde ich gerne sichern, wenn sie überhaupt noch existieren... Was kann ich tun?
 
zpool status:
pool: ZFS-Pool
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
ZFS-Pool ONLINE 0 0 0
ata-SanDisk_SD8SB8U-128G-1016_181440800226 ONLINE 0 0 0

errors: No known data errors

zpool list -v
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
ZFS-Pool 119G 408K 119G - - 0% 0% 1.00x ONLINE -
ata-SanDisk_SD8SB8U-128G-1016_181440800226 119G 408K 119G - - 0% 0.00% - ONLINE

lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 119.2G 0 disk
├─sda1 8:1 0 119.2G 0 part
└─sda9 8:9 0 8M 0 part
sdb 8:16 0 931.5G 0 disk
sdc 8:32 0 1.8T 0 disk
nvme0n1 259:0 0 931.5G 0 disk
├─nvme0n1p1 259:1 0 1007K 0 part
├─nvme0n1p2 259:2 0 1G 0 part
└─nvme0n1p3 259:3 0 930.5G 0 part
├─pve-swap 252:0 0 8G 0 lvm [SWAP]
├─pve-root 252:1 0 96G 0 lvm /
├─pve-data_tmeta 252:2 0 8.1G 0 lvm
│ └─pve-data-tpool 252:4 0 794.3G 0 lvm
│ ├─pve-data 252:5 0 794.3G 1 lvm
│ └─pve-vm--100--disk--0 252:6 0 200G 0 lvm
└─pve-data_tdata 252:3 0 794.3G 0 lvm
└─pve-data-tpool 252:4 0 794.3G 0 lvm
├─pve-data 252:5 0 794.3G 1 lvm
└─pve-vm--100--disk--0 252:6 0 200G 0 lvm
 
Ok, hast Du noch Parameter, wie zfs atime=off oder zpool set autotrim=off gesetzt/ geändert?
Schon mal danke für deine Antworten! Nein, ich habe das ZFS über die GUI eingerichtet und keine Parameter über die Shell geändert.
 
Deine Pools kann man einfach über zpool attach <pool-name> <old-device-name> <new-device-name> erweitern, wenn man die selbe SSD noch mal eine einbindet.
Würde das meinen Container wieder zum Laufen bringen (und mich zu meinen Dokumenten bringen) oder ist das eher als Ratschlag für die Zukunft gedacht, wenn ich mich wieder mit ZFS beschäftigen will?
 
Filesystem Size Used Avail Use% Mounted on
udev 16G 0 16G 0% /dev
tmpfs 3.2G 1.1M 3.2G 1% /run
/dev/mapper/pve-root 94G 3.8G 86G 5% /
tmpfs 16G 46M 16G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
/dev/fuse 128M 16K 128M 1% /etc/pve
ZFS-Pool 116G 128K 116G 1% /ZFS-Pool
tmpfs 3.2G 0 3.2G 0% /run/user/0
 
Ja die Raid-Level sind mir (zumindest in der Theorie) ein Begriff. Ich werde mir deine Tipps auf jeden Fall zu Herzen nehmen.
 
Ich bin noch über "alte" Screenshots gestolpert, die ich mal gemacht habe. Aus denen kann man auch nichts ableiten was den Verbleib meiner Daten anbetrifft, oder?
 

Attachments

  • Screenshot 2024-08-13 171927.png
    Screenshot 2024-08-13 171927.png
    42.2 KB · Views: 5
  • Screenshot 2024-08-13 171742.png
    Screenshot 2024-08-13 171742.png
    50 KB · Views: 5
vs aktuell:
 

Attachments

  • Screenshot 2024-09-12 194444.png
    Screenshot 2024-09-12 194444.png
    37.4 KB · Views: 4
  • Screenshot 2024-09-12 194354.png
    Screenshot 2024-09-12 194354.png
    47.4 KB · Views: 4
Ich sehe da nur dass die SSD leer ist, nicht aber ob die Daten nicht vllt auch auf dem Laufwerksspeicher von meinem Knoten "proxmox" liegen, falls die ZFS-SSD nur gespiegelt hat.
 
hm für mich sieht es so aus als ob deine Daten hier drin liegen vom Paperless
pve-vm--100--disk--0 252:6 0 200G 0 lvm
 
Da hast du Glück, es ist nur die Container OS Disk weg, musst du aus dem Backup holen oder neu installieren. Der Mountpoint wo deine Daten drauf sein sollten ist ja noch da.
 
Da hast du Glück, es ist nur die Container OS Disk weg, musst du aus dem Backup holen oder neu installieren. Der Mountpoint wo deine Daten drauf sein sollten ist ja noch da.
Oh das wäre ja echt eine Erlösung, hab jetzt schon gefühlt 24 h schlechte Laune wegen meiner Dummheit. Backup gibts leider keines. Wie kann ich das denn neu installieren?
 
Oh das wäre ja echt eine Erlösung, hab jetzt schon gefühlt 24 h schlechte Laune wegen meiner Dummheit. Backup gibts leider keines. Wie kann ich das denn neu installieren?
So wie du den Paperless vorher installiert hattest und dann den Mountpoint in den neuen Container umhängen.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!