Einbinden einer vorhandenen Festplatte ohne die Verzeichnissse und Dateien zu löschen

halfdan34

New Member
Feb 16, 2025
3
0
1
Hallo Leute,
bisher habe ich ein Nas auf Basis von OMV (Openmediavault) betrieben.
Jetzt habe ich etwas leistungsfähigere Rechnerhardware und möchte gerne mit Proxmox experimentieren.
Neben virtuellen Maschinen zum Testen, möchte ich auch eine VM aufsetzen mit OMV die mein altes OMV Nas ersetzen soll. Jetzt möchte ich gerne die vorhandene Festplatte die verschiedene Ordner enthält, welche bisher unter OMV per SMB im Netzwerk angeboten wurden über diese OMV VM ebenfalls wieder im Netzwerk anbieten. Wie sollte ich hier im Besten Fall vorgehen?
Vielen Dank schon mal für eure Hilfe hierbei!
 
Am besten hängst du die Disk einfach direkt an die VM, dann hast du alles wie vorher im OMV.

Hier ein Beispiel:
qm set 100 -scsi1 /dev/disk/by-id/xxxx
 
  • Like
Reactions: news
Gut zu hören, dass das grundsätzlich geht, danke dir! In meinem konkreten Fall handelt es sich um eine externe Disk. Diese muss ich vermutlich zunächst händisch in die Fstab von Proxmox eintragen und danach mit dem von dir genannten Befehl an die VM „koppeln“, oder gibt es für den ersten Schritt (Eintrag in fstab) einen „datenzerstörungsfreien“ Automatismus?
 
Last edited:
Nein, ein Eintrag in die fstab ist nicht nötig, da du die HDD direkt über die eindeutige ID an die VM durchreichst.
 
  • Like
Reactions: Falk R.
Hi

ich bin total neu hier und bei Proxmox und entschuldige mich, weil ich diesen Post hijacke.
Ich habe einen bestehenden ZFS Pool ("Daten") als Storage in Proxmox importiert. Kann ich ihn mit folgendem Command an eine VM weiterreichen?
Code:
qm set 100 -scsi0 /Daten

Vielen Dank im Voraus
 
Hi

ich bin total neu hier und bei Proxmox und entschuldige mich, weil ich diesen Post hijacke.
Ich habe einen bestehenden ZFS Pool ("Daten") als Storage in Proxmox importiert. Kann ich ihn mit folgendem Command an eine VM weiterreichen?
Code:
qm set 100 -scsi0 /Daten

Vielen Dank im Voraus
Wo kommt denn der ZFS Pool her?
Wenn deine Daten direkt in dem Pool liegen, müsstest du den wieder unmounten und die Disk an deine VM weiterreichen, damit du den Pool in der VM importieren kannst.
 
Der ZFS Pool ist ein RAIDZ3 mit 11 HDD. Vorher habe ich OMV bare metal laufen lassen. Aufgrund leider öfters auftretender Probleme mit Updates und dadurch bedingten Mehraufwand möchte ich nun Proxmox darunter laufen lassen um bei Bedarf ein Rollback machen zu können.

Den Pool möchte ich ungern zerstören. Könnte ich auch alle 11 Platten direkt weiter reichen? Ich nutze zur Zeit ein Supermicro Board mit 3 build in SAS/SATA-Controllern. Bislang habe ich noch nicht herausgefunden wie ich in Proxmox mehr als einen davon an eine VM weiter reiche.
 
Genau so wie eine, kannst du auch viele Disks durchreichen.
 
Ich lese die Anfrage etwas anders, die HDDs sind am Supermicro Board angeschlossen und sollen direkt unter Proxmox Debian 12.10 genutzt werden.
Dann würde ich nur eine ZFS-Dataset (virtiofs) oder ZFS-Volume weiter reichen.

Dazu muss man erstmal feststellen, ob sie auch alle im System verfügbar sind.

lsblk -o name,uuid,fstype,mountpoint,label,size

Dann würde ich mir die Bezeichnungen und Partitionen über sichern:
ls -lA /dev/disk/by-id/

Hier kann man testen, ob der ZFS Pool erkannt wird:
zpool import

# https://docs.oracle.com/cd/E36784_01/html/E36835/gazuf.html
# man zpool import

Ich möchte die Device-Benennungen, wie oben (/dev/disk/by-id/) haben, deshalb:
zpool import -d /dev/disk/by-id/ <pool-id|pool-name> <new-pool-name>
 
Last edited:
Dann kann OMV bestimmt nicht auf alle ZFS Features zugreifen. Ich weiß aber auch nicht was OMV da alles benötigt.
 
Wie kann ich ein ZFS-Dataset oder ZFS-Volume weiterreichen?
Alle Disks einzeln wäre der Befehl aus Post #2, nur halt 11x? Dann könnte ich den Pool in OMV importieren?
Kann Proxmox den dann auch noch mounten oder schliesst sich das aus? Muss ich dort vorher exportieren?
 
Um noch den geforderten Ausgaben gerecht zuwerden:
Code:
root@proxmox:~# lsblk -o name,uuid,fstype,mountpoint,label,size
NAME                         UUID                                   FSTYPE      MOUNTPOINT LABEL   SIZE
sda                                                                                                3.6T
├─sda1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sda9                                                                                               8M
sdb                                                                                                3.6T
├─sdb1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdb9                                                                                               8M
sdc                                                                                                7.3T
├─sdc1                       11806636875038624545                   zfs_member             Daten   7.3T
└─sdc9                                                                                               8M
sdd                                                                                                7.3T
├─sdd1                       11806636875038624545                   zfs_member             Daten   7.3T
└─sdd9                                                                                               8M
sde                                                                                                7.3T
├─sde1                       11806636875038624545                   zfs_member             Daten   7.3T
└─sde9                                                                                               8M
sdf                                                                                                3.6T
├─sdf1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdf9                                                                                               8M
sdg                                                                                                3.6T
├─sdg1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdg9                                                                                               8M
sdh                                                                                                3.6T
├─sdh1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdh9                                                                                               8M
sdi                                                                                                3.6T
├─sdi1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdi9                                                                                               8M
sdj                                                                                                3.6T
├─sdj1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdj9                                                                                               8M
sdk                                                                                                3.6T
├─sdk1                       11806636875038624545                   zfs_member             Daten   3.6T
└─sdk9                                                                                               8M
sdl                                                                                              111.8G
├─sdl1                                                                                            1007K
├─sdl2                       47B0-3700                              vfat        /boot/efi            1G
└─sdl3                       n7UtAM-NXRj-SOJ2-5OoF-09KX-SYUB-FSaiN8 LVM2_member                  110.8G
  ├─pve-swap                 907b2727-3d5f-4fc0-9931-45bcd61c5a2c   swap        [SWAP]               8G
  ├─pve-root                 2c0ba6ef-44a0-4a03-bc74-8f4e3ea7294d   ext4        /                 37.7G
  ├─pve-data_tmeta                                                                                   1G
  │ └─pve-data-tpool                                                                              49.3G
  │   ├─pve-data                                                                                  49.3G
  │   └─pve-vm--101--disk--0                                                                        16G
  └─pve-data_tdata                                                                                49.3G
    └─pve-data-tpool                                                                              49.3G
      ├─pve-data                                                                                  49.3G
      └─pve-vm--101--disk--0                                                                        16G
Code:
root@proxmox:~# ls -lA /dev/disk/by-id/
total 0
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-Samsung_SSD_840_EVO_120GB_S1D5NSBF139844V -> ../../sdl
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-Samsung_SSD_840_EVO_120GB_S1D5NSBF139844V-part1 -> ../../sdl1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-Samsung_SSD_840_EVO_120GB_S1D5NSBF139844V-part2 -> ../../sdl2
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-Samsung_SSD_840_EVO_120GB_S1D5NSBF139844V-part3 -> ../../sdl3
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-ST4000DM004-2CV104_ZFN17YF2 -> ../../sdj
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST4000DM004-2CV104_ZFN17YF2-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-ST4000DM004-2CV104_ZFN17YF2-part9 -> ../../sdj9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-ST4000VN008-2DR166_ZGY45M68 -> ../../sdk
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST4000VN008-2DR166_ZGY45M68-part1 -> ../../sdk1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST4000VN008-2DR166_ZGY45M68-part9 -> ../../sdk9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WRQ2D8HA -> ../../sdd
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST8000NM017B-2TJ103_WRQ2D8HA-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WRQ2D8HA-part9 -> ../../sdd9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WWZ4W691 -> ../../sde
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST8000NM017B-2TJ103_WWZ4W691-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WWZ4W691-part9 -> ../../sde9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WWZ4WJNW -> ../../sdc
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-ST8000NM017B-2TJ103_WWZ4WJNW-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-ST8000NM017B-2TJ103_WWZ4WJNW-part9 -> ../../sdc9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-TOSHIBA_HDWQ140_199DK0OVFAYG -> ../../sdi
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-TOSHIBA_HDWQ140_199DK0OVFAYG-part1 -> ../../sdi1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-TOSHIBA_HDWQ140_199DK0OVFAYG-part9 -> ../../sdi9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-TOSHIBA_HDWQ140_199YK0KWFAYG -> ../../sdh
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-TOSHIBA_HDWQ140_199YK0KWFAYG-part1 -> ../../sdh1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-TOSHIBA_HDWQ140_199YK0KWFAYG-part9 -> ../../sdh9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TAP18S -> ../../sda
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TAP18S-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K1TAP18S-part9 -> ../../sda9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K4KRPKJT -> ../../sdb
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K4KRPKJT-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-WDC_WD40EFRX-68N32N0_WD-WCC7K4KRPKJT-part9 -> ../../sdb9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K4HD217Z -> ../../sdf
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K4HD217Z-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K4HD217Z-part9 -> ../../sdf9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K7XNJPY8 -> ../../sdg
lrwxrwxrwx 1 root root 10 Apr 12 22:38 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K7XNJPY8-part1 -> ../../sdg1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 ata-WDC_WD40EZRZ-75GXCB0_WD-WCC7K7XNJPY8-part9 -> ../../sdg9
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-name-pve-root -> ../../dm-1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-name-pve-swap -> ../../dm-0
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-name-pve-vm--101--disk--0 -> ../../dm-6
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-uuid-LVM-xvPwO60o4sGzfIzeLpJutcfHiPfdr0OKFYIFjozgfyshnLSkRI9o4JkXfI1BmB1H -> ../../dm-1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-uuid-LVM-xvPwO60o4sGzfIzeLpJutcfHiPfdr0OKrCWA02u0ggbW7BgXC1cS8UhAVQ1BFniu -> ../../dm-0
lrwxrwxrwx 1 root root 10 Apr 12 22:37 dm-uuid-LVM-xvPwO60o4sGzfIzeLpJutcfHiPfdr0OKZNS5cs83xnxPFo9j3RRJUOqpLDauLwvA -> ../../dm-6
lrwxrwxrwx 1 root root 10 Apr 12 22:37 lvm-pv-uuid-n7UtAM-NXRj-SOJ2-5OoF-09KX-SYUB-FSaiN8 -> ../../sdl3
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x500003990bd00888 -> ../../sdi
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x500003990bd00888-part1 -> ../../sdi1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x500003990bd00888-part9 -> ../../sdi9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x500003990c7807ff -> ../../sdh
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x500003990c7807ff-part1 -> ../../sdh1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x500003990c7807ff-part9 -> ../../sdh9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x5000c500b0355a86 -> ../../sdj
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500b0355a86-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x5000c500b0355a86-part9 -> ../../sdj9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x5000c500b501dbcc -> ../../sdk
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500b501dbcc-part1 -> ../../sdk1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500b501dbcc-part9 -> ../../sdk9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x5000c500f6e33ba7 -> ../../sde
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500f6e33ba7-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x5000c500f6e33ba7-part9 -> ../../sde9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x5000c500f6e352ce -> ../../sdc
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500f6e352ce-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x5000c500f6e352ce-part9 -> ../../sdc9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x5000c500f6e3c401 -> ../../sdd
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x5000c500f6e3c401-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x5000c500f6e3c401-part9 -> ../../sdd9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x50014ee20fba30f5 -> ../../sdf
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x50014ee20fba30f5-part1 -> ../../sdf1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50014ee20fba30f5-part9 -> ../../sdf9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x50014ee20fbaaf54 -> ../../sdg
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x50014ee20fbaaf54-part1 -> ../../sdg1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50014ee20fbaaf54-part9 -> ../../sdg9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x50014ee210c65dba -> ../../sdb
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x50014ee210c65dba-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50014ee210c65dba-part9 -> ../../sdb9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x50014ee2661baf1a -> ../../sda
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x50014ee2661baf1a-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 Apr 12 22:38 wwn-0x50014ee2661baf1a-part9 -> ../../sda9
lrwxrwxrwx 1 root root  9 Apr 12 22:37 wwn-0x50025388a01f002d -> ../../sdl
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50025388a01f002d-part1 -> ../../sdl1
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50025388a01f002d-part2 -> ../../sdl2
lrwxrwxrwx 1 root root 10 Apr 12 22:37 wwn-0x50025388a01f002d-part3 -> ../../sdl3
 
Hier kann man testen, ob der ZFS Pool erkannt wird:
zpool import

# https://docs.oracle.com/cd/E36784_01/html/E36835/gazuf.html
# man zpool import

Ich möchte die Device-Benennungen, wie oben (/dev/disk/by-id/) haben, deshalb:
zpool import -d /dev/disk/by-id/ <pool-id|pool-name> <new-pool-name>
Guten Morgen, fein, da sehen wir auch die ZFS Festplatten zum ZFS Pool.

Magst Du mal testen, was $ zpool import an Ausgaben liefert?

Auch könnte man sich mal ein Script schreiben, dass alle ZFS Festplatten mit smartctl -a <path-to-device-name> überprüft.
$ man smartctl -a
 
Last edited:
Bei deiner Wahl der Seagate ST4000DM004, 4 TB HDDs könnte es langfristig ein Problem geben.
* Power-On Hours per Year (24×7) = 2400
* Workload Rate Limit (TB/Year) = 55

# https://www.seagate.com/www-content/datasheets/pdfs/3-5-barracudaDS1900-11-1806US-en_US.pdf

Die Seagate ST4000VN008, 8 TB HDDs werden für den NAS Einsatz funktionieren.
# https://www.seagate.com/content/dam...pdfs/ironwolf-18tb-DS1904-21-2207US-en_US.pdf

Die Seagate ST8000NM017B, 8 TB Exos 7E10 sehe auch klasse für den NAS Einsatz aus.
# https://www.seagate.com/files/www-content/datasheets/pdfs/exos-7e10-DS1957-6M-2104GB-en_GB.pdf

WD als HDD Anbieter nutze ich nicht (mehr) in meinen Servern.
 
Wie gesagt, der Pool ist schon eingebunden als /Daten in Proxmox.
Eine ST4000DM004 hat den Geist aufgegeben, weitere Exos sind bestellt.
Das mit der UUID zum einbinden ist irgendwie komisch, weil oben alle die gleiche UUID haben.
Die eine ist über PARTLABEL eingebunden.
Code:
root@proxmox:~# zpool status Daten
  pool: Daten
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J
  scan: resilvered 5.84M in 00:00:04 with 0 errors on Sat Apr 12 22:25:51 2025
config:

        NAME                      STATE     READ WRITE CKSUM
        Daten                     DEGRADED     0     0     0
          raidz3-0                DEGRADED     0     0     0
            zfs-8804aba7fbe8fcb3  ONLINE       0     0     0
            sdc                   ONLINE       0     0     0
            sdb                   ONLINE       0     0     0
            sda                   ONLINE       0     0     0
            sdi                   ONLINE       0     0     0
            6308719025548114786   FAULTED      0     0     0  was /dev/sdd1
            sdd                   ONLINE       0     0     0
            sde1                  ONLINE       0     0     0
            sdh                   ONLINE       0     0     0
            sdf                   ONLINE       0     0     0
            sdg                   ONLINE       0     0     0

errors: No known data errors
 
Last edited:
Hallo, danke für den Report.
Dass der Pool unter Proxmox importiert ist habe ich nicht gelesen.

Problem bereitet mir bei rund 10 der 11 Platten der "ZFS-MountPoint".
Durch die Partitionen 1 und 9 ist nur sde1 als korrekt zugeordnet einzustufen.
Das bitte ich unbedingt zu korrigieren!

/dev/sdc ist wie folgt zu verwenden:
sdc 7.3T<br>├─sdc1 11806636875038624545 zfs_member Daten 7.3T<br>└─sdc9 8M
Code:
sdc                                                                                                7.3T
├─sdc1                       11806636875038624545                   zfs_member             Daten   7.3T
└─sdc9                                                                                               8M

Wo nun zfs-8804aba7fbe8fcb3 her kommt, kann ich mir, von meinem Standpunkt als Beobachter, nicht herleiten.
 
Ist das mit einem bestehenden Pool möglich? Muss man da ständig resilvern?
Wie hilft mir das, den Pool an die VM weiterzureichen?
 
So ist der Pool in meinen Augen, da falsche Partitionen verwendet werden, nicht funktionsfähig.
Also wenn etwas kaputt ist, würde ich damit nicht arbeiten wollen.

Mach mal bitte eine:
a) zpool list -v
und
b) zfs list -r

Den ZFS Pool nicht als ganzes ist nicht möglich.
ZFS Datasets und ZFS Volumes kann man, wenn die Verwaltung bei Proxmox bleibt, "weiter reichen".

# https://forum.proxmox.com/threads/einbinden-einer-vorhandenen-festplatte-ohne-die-verzeichnissse-und-dateien-zu-löschen.162348/post-763240
 
Last edited: