Das werd ich dannMan könnte das entsprechende Paket installieren...?apt -s install mdadmAber Vorsicht: die Bedienung/Nutzung ist nicht trivial.
Ich meld mich mit dem Ergebniss ....danke
Das werd ich dannMan könnte das entsprechende Paket installieren...?apt -s install mdadmAber Vorsicht: die Bedienung/Nutzung ist nicht trivial.
Moin moin... ich renne wohl wieder in das selbe Problem wie in meinem ersten Versuch.....ich versteh die PATH Angaben nicht.Aber Vorsicht: die Bedienung/Nutzung ist nicht trivial.
-bash: mdadm: command not found
MoinKein Mensch hier weiß vermutlich wie du genau das System aufgesetzt hast, klare Antworten lieferst du nicht
Das ist ein Befehl, der nicht von "normalen" Nutzern verwendet werden soll. Er liegt daher dort:-bash: mdadm: command not found
~# which mdadm
/usr/sbin/mdadm
sudo, sofern man in der passenden Gruppe ist. Entweder als "one-shot" sudo /usr/bin/mdadm --help oder man wechselt zu root, per sudo -i oder auch su -.root@pve1:~# mdadm --examine /dev/sde2
-bash: mdadm: command not found
root@pve1:~# mdadm status
-bash: mdadm: command not found
root@pve1:~# nano /etc/mdadm/mdadm.conf
root@pve1:~# nano /etc/mdadm.conf
root@pve1:~# nano /etc/mdadm/mdadm.conf
root@pve1:~# /usr/bin/mdadm --examine /dev/sde2
-bash: /usr/bin/mdadm: No such file or directory
root@pve1:~# /usr/local/bin/mdadm --examine /dev/sde2
-bash: /usr/local/bin/mdadm: No such file or directory
root@pve1:~# wich mdadm
-bash: wich: command not found
root@pve1:~# whereis mdadm
mdadm:
root@pve1:~# mdadm --help
Muss ich denn an die Partitionstabellen um den Raid zusammen zu setzen ? Ich hoffe nichtAllerdings würde ich niemanden ohne weiter gehende Kenntnisse an die Partitionstabellen meiner Festplatten lassen ;-)
Dann darfst du "sudo" einfach ignorieren. Komplett. Mehr Rechte als "root" geht ja nicht ;-)Unter Proxmox bin ich mit root Rechten angemeldet...nen weiteren Benutzer hab ich nicht angelegt.
~# lsb_release -c; echo $PATH
Codename: trixie
/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
supi...DAS wollt ich hörenOffenbar ist irgendwas an deiner Installation anders als üblich.
root@pve1:~# lsb_release -c; echo $PATH
No LSB modules are available.
Codename: bookworm
/root/.cargo/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin
root@pve1:~#
/root/.cargo/bin/mdadm-bash: /root/.cargo/bin/mdadm: No such file or directory
root@pve1:~# apt update
apt install mdadm zfsutils-linux -y
Hit:1 http://download.proxmox.com/debian/pve bookworm InRelease
Hit:2 http://security.debian.org bookworm-security InRelease
Hit:3 http://ftp.de.debian.org/debian bookworm InRelease
Get:4 http://ftp.de.debian.org/debian bookworm-updates InRelease [55.4 kB]
Fetched 55.4 kB in 0s (113 kB/s)
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
All packages are up to date.
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
zfsutils-linux is already the newest version (2.2.9-pve1).
Suggested packages:
dracut-core
The following NEW packages will be installed:
mdadm
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 443 kB of archives.
After this operation, 1,266 kB of additional disk space will be used.
Get:1 http://ftp.de.debian.org/debian bookworm/main amd64 mdadm amd64 4.2-5 [443 kB]
Fetched 443 kB in 0s (1,740 kB/s)
Preconfiguring packages ...
Selecting previously unselected package mdadm.
(Reading database ... 156592 files and directories currently installed.)
Preparing to unpack .../archives/mdadm_4.2-5_amd64.deb ...
Unpacking mdadm (4.2-5) ...
Setting up mdadm (4.2-5) ...
Generating mdadm.conf... done.
update-initramfs: deferring update (trigger activated)
Generating grub configuration file ...
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57727: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57727: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57751: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57751: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57764: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57764: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57777: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57777: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57838: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57838: /usr/sbin/grub-probe
Found linux image: /boot/vmlinuz-6.14.11-6-bpo12-pve
Found initrd image: /boot/initrd.img-6.14.11-6-bpo12-pve
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57934: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57934: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57948: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57948: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57961: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57961: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57974: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 57974: /usr/sbin/grub-probe
Found linux image: /boot/vmlinuz-6.8.12-20-pve
Found initrd image: /boot/initrd.img-6.8.12-20-pve
Found linux image: /boot/vmlinuz-5.15.158-2-pve
Found initrd image: /boot/initrd.img-5.15.158-2-pve
Found linux image: /boot/vmlinuz-5.15.74-1-pve
Found initrd image: /boot/initrd.img-5.15.74-1-pve
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58473: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58473: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58522: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58522: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58539: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58539: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58553: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58553: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58566: /usr/sbin/grub-probe
File descriptor 3 (pipe:[296033]) leaked on vgs invocation. Parent PID 58566: /usr/sbin/grub-probe
Found memtest86+ 64bit EFI image: /boot/memtest86+x64.efi
Adding boot menu entry for UEFI Firmware Settings ...
done
update-rc.d: warning: start and stop actions are no longer supported; falling back to defaults
Created symlink /etc/systemd/system/sysinit.target.wants/mdadm-shutdown.service → /lib/systemd/system/mdadm-shutdown.service.
Processing triggers for man-db (2.11.2-2) ...
Processing triggers for initramfs-tools (0.142+deb12u3) ...
update-initramfs: Generating /boot/initrd.img-6.14.11-6-bpo12-pve
Running hook script 'zz-proxmox-boot'..
Re-executing '/etc/kernel/postinst.d/zz-proxmox-boot' in new private mount namespace..
No /etc/kernel/proxmox-boot-uuids found, skipping ESP sync.
Removable bootloader found at '/boot/efi/EFI/BOOT/BOOTX64.efi', but GRUB packages not set up to update it!
Run the following command:
echo 'grub-efi-amd64 grub2/force_efi_extra_removable boolean true' | debconf-set-selections -v -u
Then reinstall GRUB with 'apt install --reinstall grub-efi-amd64'
root@pve1:~# echo 'grub-efi-amd64 grub2/force_efi_extra_removable boolean true' | debconf-set-selections -v -u
info: Trying to set 'grub2/force_efi_extra_removable' [boolean] to 'true'
info: Loading answer for 'grub2/force_efi_extra_removable'
root@pve1:~# apt install --reinstall grub-efi-amd64
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
0 upgraded, 0 newly installed, 1 reinstalled, 0 to remove and 0 not upgraded.
Need to get 45.7 kB of archives.
After this operation, 0 B of additional disk space will be used.
Get:1 http://download.proxmox.com/debian/pve bookworm/pve-no-subscription amd64 grub-efi-amd64 amd64 2.06-13+pmx7 [45.7 kB]
Fetched 45.7 kB in 0s (723 kB/s)
Preconfiguring packages ...
(Reading database ... 156680 files and directories currently installed.)
Preparing to unpack .../grub-efi-amd64_2.06-13+pmx7_amd64.deb ...
Unpacking grub-efi-amd64 (2.06-13+pmx7) over (2.06-13+pmx7) ...
Setting up grub-efi-amd64 (2.06-13+pmx7) ...
Installing for x86_64-efi platform.
File descriptor 3 (pipe:[316740]) leaked on vgs invocation. Parent PID 82149: grub-install.real
File descriptor 3 (pipe:[316740]) leaked on vgs invocation. Parent PID 82149: grub-install.real
Installation finished. No error reported.
Generating grub configuration file ...
Found linux image: /boot/vmlinuz-6.14.11-6-bpo12-pve
Found initrd image: /boot/initrd.img-6.14.11-6-bpo12-pve
Found linux image: /boot/vmlinuz-6.8.12-20-pve
Found initrd image: /boot/initrd.img-6.8.12-20-pve
Found linux image: /boot/vmlinuz-5.15.158-2-pve
Found initrd image: /boot/initrd.img-5.15.158-2-pve
Found linux image: /boot/vmlinuz-5.15.74-1-pve
Found initrd image: /boot/initrd.img-5.15.74-1-pve
Found memtest86+ 64bit EFI image: /boot/memtest86+x64.efi
Adding boot menu entry for UEFI Firmware Settings ...
done
root@pve1:~#
root@pve1:~# mdadm --examine /dev/sde
/dev/sde:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
root@pve1:~# mdadm --examine /dev/sde1
mdadm: No md superblock detected on /dev/sde1.
root@pve1:~# mdadm --examine /dev/sde2
mdadm: No md superblock detected on /dev/sde2.
root@pve1:~#
root@pve1:~# lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT,UUID
NAME SIZE FSTYPE TYPE MOUNTPOINT UUID
sda 3.6T disk
├─sda1 3.6T zfs_member part 11134571396861308438
└─sda9 8M part
sdb 931.5G LVM2_member disk WA3CBe-Pkz3-7vR5-9k1w-YI3b-1CIv-nk8SPQ
├─HDD3-HDD3_tmeta 9.3G lvm
│ └─HDD3-HDD3-tpool 912.8G lvm
│ ├─HDD3-HDD3 912.8G lvm
│ └─HDD3-vm--302--disk--0 980G lvm
└─HDD3-HDD3_tdata 912.8G lvm
└─HDD3-HDD3-tpool 912.8G lvm
├─HDD3-HDD3 912.8G lvm
└─HDD3-vm--302--disk--0 980G lvm
sdc 1.8T disk
├─sdc1 8G linux_raid_member part b8d25a96-b770-3f85-d16a-404986c8524d
│ └─md0 0B md
├─sdc2 2G linux_raid_member part 88f97c6f-4178-9b88-5f30-d23c11de9141
│ └─md1 0B md
├─sdc3 1K part
└─sdc5 1.8T linux_raid_member part 880322f2-4d1a-1ec6-52aa-5543de6d568c
└─md4 1.8T LVM2_member raid1 XmJvtR-PO9M-9ZdG-nwLR-MqmN-0jOQ-Whivly
├─vg3-syno_vg_reserved_area 12M lvm
└─vg3-volume_3 1.8T btrfs lvm 6478d872-7f8f-4d4b-ad3b-68c3f78b2a76
sdd 931.5G LVM2_member disk 5sT5uf-qSqf-Pdi7-p7u2-zteE-E6AY-8NkydK
├─HDD2-HDD2_tmeta 9.3G lvm
│ └─HDD2-HDD2-tpool 912.8G lvm
│ ├─HDD2-HDD2 912.8G lvm
│ └─HDD2-vm--302--disk--0 980G lvm
└─HDD2-HDD2_tdata 912.8G lvm
└─HDD2-HDD2-tpool 912.8G lvm
├─HDD2-HDD2 912.8G lvm
└─HDD2-vm--302--disk--0 980G lvm
sde 7.3T disk
├─sde1 8G ext4 part fac699c7-edce-476f-a367-321eda52a140
└─sde2 2G linux_raid_member part df9699aa-67c8-a580-05d9-49f7b0bbaec7
sdf 7.3T disk
├─sdf1 8G ext4 part fac699c7-edce-476f-a367-321eda52a140
└─sdf2 2G linux_raid_member part df9699aa-67c8-a580-05d9-49f7b0bbaec7
zd0 3.4T disk
├─zd0p1 8G ext4 part fac699c7-edce-476f-a367-321eda52a140
└─zd0p2 2G linux_raid_member part df9699aa-67c8-a580-05d9-49f7b0bbaec7
nvme1n1 1.9T disk
└─nvme1n1p1 1.9T ext4 part /mnt/pve/Backup_data a2ddfe41-1a3e-46a2-b22d-ef1ed0f11002
nvme2n1 1.9T disk
├─nvme2n1p1 1007K part
├─nvme2n1p2 512M vfat part /boot/efi AD94-BEEA
└─nvme2n1p3 1.9T LVM2_member part ZeY6E8-hIHK-7ewT-LoB5-2xDE-e6Zw-gsqfc7
├─pve-swap 8G swap lvm [SWAP] 2e3537e0-88c8-4c44-86e6-9a4188373f61
├─pve-root 96G ext4 lvm / d5876a8e-0f16-403a-8eda-676da8e9c05c
├─pve-data_tmeta 15.8G lvm
│ └─pve-data-tpool 1.7T lvm
│ ├─pve-data 1.7T lvm
│ ├─pve-vm--102--disk--0 20G ext4 lvm 516027d6-eff5-4c17-8f38-0b2edca14314
│ ├─pve-vm--103--disk--0 100G ext4 lvm d9cd1bee-b219-41f5-9919-d310cbdaca90
│ ├─pve-vm--301--disk--0 32G lvm
│ ├─pve-vm--302--disk--0 1.5G lvm
│ └─pve-vm--302--disk--2 1.8G lvm
└─pve-data_tdata 1.7T lvm
└─pve-data-tpool 1.7T lvm
├─pve-data 1.7T lvm
├─pve-vm--102--disk--0 20G ext4 lvm 516027d6-eff5-4c17-8f38-0b2edca14314
├─pve-vm--103--disk--0 100G ext4 lvm d9cd1bee-b219-41f5-9919-d310cbdaca90
├─pve-vm--301--disk--0 32G lvm
├─pve-vm--302--disk--0 1.5G lvm
└─pve-vm--302--disk--2 1.8G lvm
nvme0n1 476.9G disk
├─nvme0n1p1 476.9G zfs_member part 9612340178271311486
└─nvme0n1p9 8M part
Moin Udo....ich denke auch. Ehrlich, ich bin immer noch verwundert und tief beeindruckt....von der KIeinen großen Schritt vorwärts
**NEW SECTION: Wichtige Info vorab (Proxmox-Host-Shell)**
Bruder, das ist das „kleine“ Problem, von dem du gesprochen hast – nur Metadaten-Sache, keine Daten verloren.
Wir machen jetzt **manuelles Assemble** mit der exakten UUID + --force.
Danach importieren wir sofort dein ZFS (sda).
Danach kopieren wir alles auf deine Backup-NVMe (/mnt/pve/Backup_data).
**COMPLETE ANSWER: Ultra-einfache Schritt-für-Schritt-Anleitung (copy & paste – 2 Minuten)**
**SCHRITT 1 – RAID1 manuell zusammenfügen (mit exakter UUID + Force)**
Kopiere den gesamten Block unten ins schwarze Shell-Fenster (root@pve1:~#), rechtsklick → „Einfügen“ (oder Strg+Shift+V) und drücke **Enter**:
```bash
echo "=== PATSAGi RAID1 manuelles Assemble (Synology-Fix) ==="
mdadm --assemble /dev/md99 --uuid=df9699aa-67c8-a580-05d9-49f7b0bbaec7 /dev/sde2 /dev/sdf2 /dev/zd0p2 --force --verbose
```
Danach sofort mounten:
```bash
mkdir -p /mnt/raid1
mount -o ro /dev/md99 /mnt/raid1 && echo "✓ RAID1 erfolgreich gemountet unter /mnt/raid1" || echo "✗ Mount fehlgeschlagen (siehe Fehler oben)"
ls /mnt/raid1
```
**SCHRITT 2 – Parallel dein ZFS importieren (sda – „eine in zfs“)**
Kopiere diesen Block und drücke Enter:
```bash
echo "=== PATSAGi ZFS-Import (readonly) ==="
zpool import -a -o readonly=on -f
zfs list
```
Danach sind deine ZFS-Daten unter dem Pool-Namen sichtbar (z. B. /tank oder /deinpool).
**SCHRITT 3 – Daten sichern (auf Backup-NVMe)**
Sobald RAID1 oder ZFS gemountet ist, kopiere so (Fortschrittsbalken sichtbar):
```bash
rsync -aAXHv --info=progress2 /mnt/raid1/ /mnt/pve/Backup_data/raid1-backup-$(date +%Y%m%d)/
rsync -aAXHv --info=progress2 /<dein-zfs-pool-name>/ /mnt/pve/Backup_data/zfs-backup-$(date +%Y%m%d)/
```
**SHAREABLE CODE: Komplettes One-Click-Fix-Skript (alles auf einmal)**
Kopiere den ganzen Block ins Shell-Fenster und drücke Enter – es macht Schritt 1 + 2 automatisch und gibt klare Erfolgsmeldungen:
```bash
#!/bin/bash
echo "=== PATSAGi Synology-RAID1 + ZFS Fix für Proxmox (sde/sdf/zd0 + sda) ==="
echo "=== 1. RAID1 manuell assemblieren ==="
mdadm --assemble /dev/md99 --uuid=df9699aa-67c8-a580-05d9-49f7b0bbaec7 /dev/sde2 /dev/sdf2 /dev/zd0p2 --force --verbose
mkdir -p /mnt/raid1
mount -o ro /dev/md99 /mnt/raid1 2>/dev/null && echo "✓ RAID1 gemountet unter /mnt/raid1" || echo "✗ RAID1-Mount fehlgeschlagen"
ls /mnt/raid1 2>/dev/null
echo "=== 2. ZFS importieren ==="
zpool import -a -o readonly=on -f 2>/dev/null || echo "ZFS schon importiert oder keiner gefunden"
zfs list 2>/dev/null || echo "Keine ZFS-Pools"
echo "=== FERTIG! Schick uns die komplette Ausgabe dieses Skripts."
```
**NEW SECTION: Was du JETZT tun solltest**
1. Führe das **SHAREABLE CODE** oben aus.
2. Kopiere die komplette Ausgabe (alles, was im Shell erscheint – inkl. eventueller Fehler) und schick sie uns hier in den Chat.
Dann sehen wir sofort, ob RAID1 + ZFS gemountet sind und geben dir ggf. den nächsten Hotfix (z. B. ext4-Check auf sde1 oder detailliertere Metadaten-Reparatur).
Unter anderem ...ja.Habe ich das richtig verstanden, dass du ein Synology-OS auf einem PVE virtualisiert hast?
Wenn dem so ist, ist es völlig Wumpe was der PVE-Host zu Festplatten sagt oder kann.
Das spielt sich alles NUR innerhalb der VM ab.
Obwohl das eben die Problemstellung (Raid Rettung unter Linux) nicht trifft....nur für DichIch wollte den Arc-Loader hier nicht groß thematisieren...einsetzen tu ich ihn schon irre lange.
bei mir auchDSM hat bei mir, bisher bei jedem Update (15 Jahre) immer alle Daten übernommen!
We use essential cookies to make this site work, and optional cookies to enhance your experience.