Bester Weg Datenrettung Raid & ZFS unter PM

Man könnte das entsprechende Paket installieren...? apt -s install mdadm Aber Vorsicht: die Bedienung/Nutzung ist nicht trivial.
Das werd ich dann ;) Ich hoff das funzt besser als unter Debian :))
Ich meld mich mit dem Ergebniss ....danke ;)
 
Aber Vorsicht: die Bedienung/Nutzung ist nicht trivial.
Moin moin... ich renne wohl wieder in das selbe Problem wie in meinem ersten Versuch.....ich versteh die PATH Angaben nicht.
mdadm ist direkt auf dem PVE installiert, aber ein Befehl führt zur gleichen Meldung:
Code:
-bash: mdadm: command not found

Die mdadm.conf gibts gar nicht, muss ich die manuell anlegen ?

Wie kann ich das lösen ? (Voll ärgerlich das ich so wenig Ahnung vom System hab)
 
Last edited:
Kein Mensch hier weiß vermutlich wie du genau das System aufgesetzt hast, klare Antworten lieferst du nicht
Moin ;) Bin nicht sicher was genau Du übers System noch wissen müsstest/wolltest.
Du kannst Dir aber sicher sein das ich Deine Bemühungen zu schätzen weiss, auch wenn Du das Problem (aus meiner Sicht) von ner anderen Seite angegangen bist ;)
Ich wollte den Arc-Loader hier nicht groß thematisieren...einsetzen tu ich ihn schon irre lange....natürlich zu Testzwecken :P

Problem ist aber ganz klar: Wie krieg ich ohne DSM die Daten raus. Wie ich danach das System wieder aufsetz weiß ich.
Thx anyway
 
Last edited:
  • Like
Reactions: Browbeat
-bash: mdadm: command not found
Das ist ein Befehl, der nicht von "normalen" Nutzern verwendet werden soll. Er liegt daher dort:
Code:
~# which mdadm
/usr/sbin/mdadm
"/usr/sbin/" ist möglicherweise nicht im Pfad von deinem Nutzer enthalten. Du brauchst außerdem root-Rechte, um mit mdadm etwas anfangen zu können.
Dazu verwendet man "heutzutage" meist sudo, sofern man in der passenden Gruppe ist. Entweder als "one-shot" sudo /usr/bin/mdadm --help oder man wechselt zu root, per sudo -i oder auch su -.

Dir fehlen offenbar noch einige Grundlagen - was durchaus OK ist. Allerdings würde ich niemanden ohne weiter gehende Kenntnisse an die Partitionstabellen meiner Festplatten lassen ;-)
 
  • Like
Reactions: Johannes S
Hi Udo, einiges davon hab ich heut morgen schon getestet...
Code:
root@pve1:~# mdadm --examine /dev/sde2
-bash: mdadm: command not found
root@pve1:~# mdadm status
-bash: mdadm: command not found
root@pve1:~# nano /etc/mdadm/mdadm.conf
root@pve1:~# nano /etc/mdadm.conf
root@pve1:~# nano /etc/mdadm/mdadm.conf
root@pve1:~# /usr/bin/mdadm --examine /dev/sde2
-bash: /usr/bin/mdadm: No such file or directory
root@pve1:~# /usr/local/bin/mdadm --examine /dev/sde2
-bash: /usr/local/bin/mdadm: No such file or directory
root@pve1:~# wich mdadm
-bash: wich: command not found
root@pve1:~# whereis mdadm
mdadm:
root@pve1:~# mdadm --help

Den Erfolg siehst Du :)
Unter Proxmox bin ich mit root Rechten angemeldet...nen weiteren Benutzer hab ich nicht angelegt.
Ich test gleich mal die Befehle mit "sudo" ...hatte das aber auch direkt unter Debian getan. Hier auch nen Benutzer angelegt mit root Rechten...ebenfalls kein Zugriff auf mdadm :((

JA, natürlich hast Du Recht....mir fehlen viele Grundlagen. Bisher hats über Anleitungen oder das Forum hier immer gereicht....und wenn das System läuft denkt man meist gar nicht mehr dran. ...iiiich weiß....grosser Fehler :)
 
Allerdings würde ich niemanden ohne weiter gehende Kenntnisse an die Partitionstabellen meiner Festplatten lassen ;-)
Muss ich denn an die Partitionstabellen um den Raid zusammen zu setzen ? Ich hoffe nicht :)
Meine Hoffnug war: Einmal die Infos der Platten lesen, Raid zusammen setzen und Daten wegkopieren.... Nö ?
 
Unter Proxmox bin ich mit root Rechten angemeldet...nen weiteren Benutzer hab ich nicht angelegt.
Dann darfst du "sudo" einfach ignorieren. Komplett. Mehr Rechte als "root" geht ja nicht ;-)

Offenbar ist irgendwas an deiner Installation anders als üblich. Der Such-Pfad sollte so aussehen:
Code:
~# lsb_release -c; echo $PATH
Codename:       trixie
/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
 
Offenbar ist irgendwas an deiner Installation anders als üblich.
supi...DAS wollt ich hören :))

bei mir :
Code:
root@pve1:~# lsb_release -c; echo $PATH
No LSB modules are available.
Codename:       bookworm
/root/.cargo/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
root@pve1:~#

Das heisst mdadm ruf ich auf mit: /root/.cargo/bin/mdadm
edit: nö....auch nicht

Code:
-bash: /root/.cargo/bin/mdadm: No such file or directory

Ich glaub der Kernel grinst sich grad einen.....
 
Last edited:
So....grad mal ne KI gefragt. Die kommt tatsächlich mit nem Argument hinter der mdadm-install....
Jetzt läuft auch ne richtige Install-Routine durch. vorher nicht.
Wünscht mir Glück ....reboot

Code:
root@pve1:~# apt update
apt install mdadm zfsutils-linux -y
Hit:1 http://download.proxmox.com/debian/pve bookworm InRelease
Hit:2 http://security.debian.org bookworm-security InRelease
Hit:3 http://ftp.de.debian.org/debian bookworm InRelease
Get:4 http://ftp.de.debian.org/debian bookworm-updates InRelease [55.4 kB]
Fetched 55.4 kB in 0s (113 kB/s)   
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
All packages are up to date.
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
zfsutils-linux is already the newest version (2.2.9-pve1).
Suggested packages:
  dracut-core
The following NEW packages will be installed:
  mdadm
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 443 kB of archives.
After this operation, 1,266 kB of additional disk space will be used.
Get:1 http://ftp.de.debian.org/debian bookworm/main amd64 mdadm amd64 4.2-5 [443 kB]
Fetched 443 kB in 0s (1,740 kB/s)
Preconfiguring packages ...
Selecting previously unselected package mdadm.
(Reading database ... 156592 files and directories currently installed.)
Preparing to unpack .../archives/mdadm_4.2-5_amd64.deb ...
Unpacking mdadm (4.2-5) ...
Setting up mdadm (4.2-5) ...
Generating mdadm.conf... done.
update-initramfs: deferring update (trigger activated)
Generating grub configuration file ...
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57727: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57727: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57751: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57751: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57764: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57764: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57777: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57777: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57838: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57838: /usr/sbin/grub-probe
Found linux image: /boot/vmlinuz-6.14.11-6-bpo12-pve
Found initrd image: /boot/initrd.img-6.14.11-6-bpo12-pve
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57934: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57934: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57948: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57948: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57961: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57961: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57974: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57974: /usr/sbin/grub-probe
Found linux image: /boot/vmlinuz-6.8.12-20-pve
Found initrd image: /boot/initrd.img-6.8.12-20-pve
Found linux image: /boot/vmlinuz-5.15.158-2-pve
Found initrd image: /boot/initrd.img-5.15.158-2-pve
Found linux image: /boot/vmlinuz-5.15.74-1-pve
Found initrd image: /boot/initrd.img-5.15.74-1-pve
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58473: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58473: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58522: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58522: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58539: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58539: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58553: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58553: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58566: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58566: /usr/sbin/grub-probe
Found memtest86+ 64bit EFI image: /boot/memtest86+x64.efi
Adding boot menu entry for UEFI Firmware Settings ...
done
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
Created symlink /etc/systemd/system/sysinit.target.wants/mdadm-shutdown.service → /lib/systemd/system/mdadm-shutdown.service.
Processing triggers for man-db (2.11.2-2) ...
Processing triggers for initramfs-tools (0.142+deb12u3) ...
update-initramfs: Generating /boot/initrd.img-6.14.11-6-bpo12-pve
Running hook script 'zz-proxmox-boot'..
Re-executing '/etc/kernel/postinst.d/zz-proxmox-boot' in new private mount namespace..
No /etc/kernel/proxmox-boot-uuids found, skipping ESP sync.

Removable bootloader found at '/boot/efi/EFI/BOOT/BOOTX64.efi', but GRUB packages not set up to update it!
Run the following command:

echo 'grub-efi-amd64 grub2/force_efi_extra_removable boolean true' | debconf-set-selections -v -u

Then reinstall GRUB with 'apt install --reinstall grub-efi-amd64'

root@pve1:~# echo 'grub-efi-amd64 grub2/force_efi_extra_removable boolean true' | debconf-set-selections -v -u
info: Trying to set 'grub2/force_efi_extra_removable' [boolean] to 'true'
info: Loading answer for 'grub2/force_efi_extra_removable'
root@pve1:~# apt install --reinstall grub-efi-amd64
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
0 upgraded, 0 newly installed, 1 reinstalled, 0 to remove and 0 not upgraded.
Need to get 45.7 kB of archives.
After this operation, 0 B of additional disk space will be used.
Get:1 http://download.proxmox.com/debian/pve bookworm/pve-no-subscription amd64 grub-efi-amd64 amd64 2.06-13+pmx7 [45.7 kB]
Fetched 45.7 kB in 0s (723 kB/s)         
Preconfiguring packages ...
(Reading database ... 156680 files and directories currently installed.)
Preparing to unpack .../grub-efi-amd64_2.06-13+pmx7_amd64.deb ...
Unpacking grub-efi-amd64 (2.06-13+pmx7) over (2.06-13+pmx7) ...
Setting up grub-efi-amd64 (2.06-13+pmx7) ...
Installing for x86_64-efi platform.
File descriptor 3 (pipe:[316740]) leaked on vgs invocation. Parent PID 82149: grub-install.real
File descriptor 3 (pipe:[316740]) leaked on vgs invocation. Parent PID 82149: grub-install.real
Installation finished. No error reported.
Generating grub configuration file ...
Found linux image: /boot/vmlinuz-6.14.11-6-bpo12-pve
Found initrd image: /boot/initrd.img-6.14.11-6-bpo12-pve
Found linux image: /boot/vmlinuz-6.8.12-20-pve
Found initrd image: /boot/initrd.img-6.8.12-20-pve
Found linux image: /boot/vmlinuz-5.15.158-2-pve
Found initrd image: /boot/initrd.img-5.15.158-2-pve
Found linux image: /boot/vmlinuz-5.15.74-1-pve
Found initrd image: /boot/initrd.img-5.15.74-1-pve
Found memtest86+ 64bit EFI image: /boot/memtest86+x64.efi
Adding boot menu entry for UEFI Firmware Settings ...
done
root@pve1:~#
 
so...mdadm läuft direkt auf dem PVE
Aber was sagt mir denn:
Code:
root@pve1:~# mdadm --examine /dev/sde
/dev/sde:
   MBR Magic : aa55
Partition[0] :   4294967295 sectors at            1 (type ee)
root@pve1:~# mdadm --examine /dev/sde1
mdadm: No md superblock detected on /dev/sde1.
root@pve1:~# mdadm --examine /dev/sde2
mdadm: No md superblock detected on /dev/sde2.
root@pve1:~#

Und die gesammelten Info´s

Code:
root@pve1:~# lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT,UUID
NAME                              SIZE FSTYPE            TYPE  MOUNTPOINT           UUID
sda                               3.6T                   disk                       
├─sda1                            3.6T zfs_member        part                       11134571396861308438
└─sda9                              8M                   part                       
sdb                             931.5G LVM2_member       disk                       WA3CBe-Pkz3-7vR5-9k1w-YI3b-1CIv-nk8SPQ
├─HDD3-HDD3_tmeta                 9.3G                   lvm                       
│ └─HDD3-HDD3-tpool             912.8G                   lvm                       
│   ├─HDD3-HDD3                 912.8G                   lvm                       
│   └─HDD3-vm--302--disk--0       980G                   lvm                       
└─HDD3-HDD3_tdata               912.8G                   lvm                       
  └─HDD3-HDD3-tpool             912.8G                   lvm                       
    ├─HDD3-HDD3                 912.8G                   lvm                       
    └─HDD3-vm--302--disk--0       980G                   lvm                       
sdc                               1.8T                   disk                       
├─sdc1                              8G linux_raid_member part                       b8d25a96-b770-3f85-d16a-404986c8524d
│ └─md0                             0B                   md                         
├─sdc2                              2G linux_raid_member part                       88f97c6f-4178-9b88-5f30-d23c11de9141
│ └─md1                             0B                   md                         
├─sdc3                              1K                   part                       
└─sdc5                            1.8T linux_raid_member part                       880322f2-4d1a-1ec6-52aa-5543de6d568c
  └─md4                           1.8T LVM2_member       raid1                      XmJvtR-PO9M-9ZdG-nwLR-MqmN-0jOQ-Whivly
    ├─vg3-syno_vg_reserved_area    12M                   lvm                       
    └─vg3-volume_3                1.8T btrfs             lvm                        6478d872-7f8f-4d4b-ad3b-68c3f78b2a76
sdd                             931.5G LVM2_member       disk                       5sT5uf-qSqf-Pdi7-p7u2-zteE-E6AY-8NkydK
├─HDD2-HDD2_tmeta                 9.3G                   lvm                       
│ └─HDD2-HDD2-tpool             912.8G                   lvm                       
│   ├─HDD2-HDD2                 912.8G                   lvm                       
│   └─HDD2-vm--302--disk--0       980G                   lvm                       
└─HDD2-HDD2_tdata               912.8G                   lvm                       
  └─HDD2-HDD2-tpool             912.8G                   lvm                       
    ├─HDD2-HDD2                 912.8G                   lvm                       
    └─HDD2-vm--302--disk--0       980G                   lvm                       
sde                               7.3T                   disk                       
├─sde1                              8G ext4              part                       fac699c7-edce-476f-a367-321eda52a140
└─sde2                              2G linux_raid_member part                       df9699aa-67c8-a580-05d9-49f7b0bbaec7
sdf                               7.3T                   disk                       
├─sdf1                              8G ext4              part                       fac699c7-edce-476f-a367-321eda52a140
└─sdf2                              2G linux_raid_member part                       df9699aa-67c8-a580-05d9-49f7b0bbaec7
zd0                               3.4T                   disk                       
├─zd0p1                             8G ext4              part                       fac699c7-edce-476f-a367-321eda52a140
└─zd0p2                             2G linux_raid_member part                       df9699aa-67c8-a580-05d9-49f7b0bbaec7
nvme1n1                           1.9T                   disk                       
└─nvme1n1p1                       1.9T ext4              part  /mnt/pve/Backup_data a2ddfe41-1a3e-46a2-b22d-ef1ed0f11002
nvme2n1                           1.9T                   disk                       
├─nvme2n1p1                      1007K                   part                       
├─nvme2n1p2                       512M vfat              part  /boot/efi            AD94-BEEA
└─nvme2n1p3                       1.9T LVM2_member       part                       ZeY6E8-hIHK-7ewT-LoB5-2xDE-e6Zw-gsqfc7
  ├─pve-swap                        8G swap              lvm   [SWAP]               2e3537e0-88c8-4c44-86e6-9a4188373f61
  ├─pve-root                       96G ext4              lvm   /                    d5876a8e-0f16-403a-8eda-676da8e9c05c
  ├─pve-data_tmeta               15.8G                   lvm                       
  │ └─pve-data-tpool              1.7T                   lvm                       
  │   ├─pve-data                  1.7T                   lvm                       
  │   ├─pve-vm--102--disk--0       20G ext4              lvm                        516027d6-eff5-4c17-8f38-0b2edca14314
  │   ├─pve-vm--103--disk--0      100G ext4              lvm                        d9cd1bee-b219-41f5-9919-d310cbdaca90
  │   ├─pve-vm--301--disk--0       32G                   lvm                       
  │   ├─pve-vm--302--disk--0      1.5G                   lvm                       
  │   └─pve-vm--302--disk--2      1.8G                   lvm                       
  └─pve-data_tdata                1.7T                   lvm                       
    └─pve-data-tpool              1.7T                   lvm                       
      ├─pve-data                  1.7T                   lvm                       
      ├─pve-vm--102--disk--0       20G ext4              lvm                        516027d6-eff5-4c17-8f38-0b2edca14314
      ├─pve-vm--103--disk--0      100G ext4              lvm                        d9cd1bee-b219-41f5-9919-d310cbdaca90
      ├─pve-vm--301--disk--0       32G                   lvm                       
      ├─pve-vm--302--disk--0      1.5G                   lvm                       
      └─pve-vm--302--disk--2      1.8G                   lvm                       
nvme0n1                         476.9G                   disk                       
├─nvme0n1p1                     476.9G zfs_member        part                       9612340178271311486
└─nvme0n1p9                         8M                   part
 
Last edited:
Du scheinst ja einen großen Schritt vorwärts gekommen zu sein. Mit dem zusammenbauen der mdadm-Fragmente kann ich leider nicht helfen.

Viel Erfolg!
 
Habe ich das richtig verstanden, dass du ein Synology-OS auf einem PVE virtualisiert hast?
Wenn dem so ist, ist es völlig Wumpe was der PVE-Host zu Festplatten sagt oder kann.
Das spielt sich alles NUR innerhalb der VM ab.

Oder schilderst du ein Problem, welches eher in ein Synology-Forum passt?
Oder hast du auf einer Synology Promox installiert?
Was sagt deine KI denn dazu?
 
Last edited:
einen großen Schritt vorwärts
Moin Udo....ich denke auch. Ehrlich, ich bin immer noch verwundert und tief beeindruckt....von der KI ;)
Wenn ich bei der Aufgabenstellung sofort von nem Syno-Raid gesprochen hätte, wäre es wohl noch schneller gegangen. So waren 3 Schritte mehr nötig.
Im ganzen 4x Linuxcode hin-und-hergeschickt....
Der letzte sieht dann zb so aus:
Code:
**NEW SECTION: Wichtige Info vorab (Proxmox-Host-Shell)** 
Bruder, das ist das „kleine“ Problem, von dem du gesprochen hast – nur Metadaten-Sache, keine Daten verloren. 
Wir machen jetzt **manuelles Assemble** mit der exakten UUID + --force. 
Danach importieren wir sofort dein ZFS (sda). 
Danach kopieren wir alles auf deine Backup-NVMe (/mnt/pve/Backup_data). 

**COMPLETE ANSWER: Ultra-einfache Schritt-für-Schritt-Anleitung (copy & paste – 2 Minuten)** 

**SCHRITT 1 – RAID1 manuell zusammenfügen (mit exakter UUID + Force)** 
Kopiere den gesamten Block unten ins schwarze Shell-Fenster (root@pve1:~#), rechtsklick → „Einfügen“ (oder Strg+Shift+V) und drücke **Enter**: 

```bash
echo "=== PATSAGi RAID1 manuelles Assemble (Synology-Fix) ==="
mdadm --assemble /dev/md99 --uuid=df9699aa-67c8-a580-05d9-49f7b0bbaec7 /dev/sde2 /dev/sdf2 /dev/zd0p2 --force --verbose
```

Danach sofort mounten: 

```bash
mkdir -p /mnt/raid1
mount -o ro /dev/md99 /mnt/raid1 && echo "✓ RAID1 erfolgreich gemountet unter /mnt/raid1" || echo "✗ Mount fehlgeschlagen (siehe Fehler oben)"
ls /mnt/raid1
```

**SCHRITT 2 – Parallel dein ZFS importieren (sda – „eine in zfs“)** 
Kopiere diesen Block und drücke Enter: 

```bash
echo "=== PATSAGi ZFS-Import (readonly) ==="
zpool import -a -o readonly=on -f
zfs list
```

Danach sind deine ZFS-Daten unter dem Pool-Namen sichtbar (z. B. /tank oder /deinpool). 

**SCHRITT 3 – Daten sichern (auf Backup-NVMe)** 
Sobald RAID1 oder ZFS gemountet ist, kopiere so (Fortschrittsbalken sichtbar): 

```bash
rsync -aAXHv --info=progress2 /mnt/raid1/ /mnt/pve/Backup_data/raid1-backup-$(date +%Y%m%d)/
rsync -aAXHv --info=progress2 /<dein-zfs-pool-name>/ /mnt/pve/Backup_data/zfs-backup-$(date +%Y%m%d)/
```

**SHAREABLE CODE: Komplettes One-Click-Fix-Skript (alles auf einmal)** 
Kopiere den ganzen Block ins Shell-Fenster und drücke Enter – es macht Schritt 1 + 2 automatisch und gibt klare Erfolgsmeldungen: 

```bash
#!/bin/bash
echo "=== PATSAGi Synology-RAID1 + ZFS Fix für Proxmox (sde/sdf/zd0 + sda) ==="
echo "=== 1. RAID1 manuell assemblieren ==="
mdadm --assemble /dev/md99 --uuid=df9699aa-67c8-a580-05d9-49f7b0bbaec7 /dev/sde2 /dev/sdf2 /dev/zd0p2 --force --verbose
mkdir -p /mnt/raid1
mount -o ro /dev/md99 /mnt/raid1 2>/dev/null && echo "✓ RAID1 gemountet unter /mnt/raid1" || echo "✗ RAID1-Mount fehlgeschlagen"
ls /mnt/raid1 2>/dev/null
echo "=== 2. ZFS importieren ==="
zpool import -a -o readonly=on -f 2>/dev/null || echo "ZFS schon importiert oder keiner gefunden"
zfs list 2>/dev/null || echo "Keine ZFS-Pools"
echo "=== FERTIG! Schick uns die komplette Ausgabe dieses Skripts."
```

**NEW SECTION: Was du JETZT tun solltest** 
1. Führe das **SHAREABLE CODE** oben aus. 
2. Kopiere die komplette Ausgabe (alles, was im Shell erscheint – inkl. eventueller Fehler) und schick sie uns hier in den Chat. 

Dann sehen wir sofort, ob RAID1 + ZFS gemountet sind und geben dir ggf. den nächsten Hotfix (z. B. ext4-Check auf sde1 oder detailliertere Metadaten-Reparatur).

Habe ich das richtig verstanden, dass du ein Synology-OS auf einem PVE virtualisiert hast?
Wenn dem so ist, ist es völlig Wumpe was der PVE-Host zu Festplatten sagt oder kann.
Das spielt sich alles NUR innerhalb der VM ab.
Unter anderem ...ja.
Es laufen zwei Proxmox im Cluster mit Quorum. NAS, Edomi, NodeRed, Influx...
Die NAS ist eben ne Synology die auch die autoBackups macht und jetzt die KI-Kameraüberwachung übernehmen sollte.
Unter einem Intel funzt das relativ easy...der Zentralrechner läuft aber unter nem Ryzen.
Hier gibts nur wenige DSM die auf AMD und KI laufen und bisher hab ichs nicht geschafft die vGPU, selbst mit direktem Nvidiatreiber, zur Kooperation zu überreden. Deshalb einige DSM-Versionen probiert. Irgendwann hat die DSM dann die Daten nicht mehr einfach übernommen, sondern wollte die Platten neu installieren (Schritt von der SA6400 zur DS3221)
Das alles am laufenden System zu machen hat schon oft geklappt....ist aber unterm Strich dumm ;)
Das hier geschilderte Problem könnte man dann eher mit "Synology-Raid unter Linux retten" beschreiben.
Genau das war mein Ziel.
 
Und immer noch weiss niemand, wie genau du die/der/das NAS auf dem Proxmox installiert hast...
 
Bist du in der Lage zu sagen, wie das NAS auf dem PVE aufgesetzt ist oder nicht?

Ganz am Anfang hieß es ja, vDSM, nun doch ARC?

Bei einem Update von DSM zerschießt man sich nämlich normal erstmal nix, und was du genau mit Neuinstallation meinst, weiss ja auch niemand...
 
Last edited:
Auch wenn das mit dem Thema nix zu tun hat ;)....von vDSM hab ICH nie gesprochen.
Upgrade würde es dann wohl besser treffen. ...wie ich oben schon geschrieben hab: Bei Upgrade übernimmt die DSM nicht immer die Daten....meist schon.