OMV5 Raid übertragen auf Proxmox

Tauchi

New Member
Nov 6, 2024
13
0
1
Hallo,

ich habe gestern Proxmox auf meinem Server aufgesetzt.
Es läuft auch super ich komme nur nicht an meine Daten im Raid.

Gibt es eine Möglichkeit noch an die Daten zu kommen? Hab die Platten lange Zeit in OpenmediaVault benutzt.

So sieht es im moment in Proxmox aus:
Bildschirmfoto 2024-11-06 um 10.36.10.png

und so in der Konsole:
Code:
root@pve:~# lsblk -f
NAME FSTYPE FSVER LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
sda                                                                           
├─sda1
│                                                                             
├─sda2
│    vfat   FAT32       97C6-0C39                               499.3M     2% /boot/efi
└─sda3
     LVM2_m LVM2        5CtMWi-Vxa2-pYyX-CV0i-yAvi-uqWG-hbSYF9               
  ├─pve-swap
  │  swap   1           673686b9-30b1-4a02-b463-5e2f06006564                  [SWAP]
  ├─pve-root
  │  xfs                fcfaefd9-7e00-4f6c-a88e-ed9237ef6c8b     20.5G    15% /
  ├─pve-data_tmeta
  │                                                                           
  │ └─pve-data-tpool
  │                                                                             
  │   ├─pve-data
  │   │                                                                           
  │   ├─pve-vm--101--disk--0
  │   │  ext4   1.0         33013591-73bb-49dd-9c4d-6228cb38f563                 
  │   ├─pve-vm--102--disk--0
  │   │  ext4   1.0         d8623707-dfca-40a1-a3a0-aa182a0bbfd4                 
  │   ├─pve-vm--103--disk--0
  │   │  ext4   1.0         f40671c8-a1a0-4cea-b92c-1e889340e4cf                 
  │   ├─pve-vm--100--disk--0
  │   │  ext4   1.0         917cb8bd-cd93-4d65-a56e-4a591235fc92                 
  │   ├─pve-vm--104--disk--0
  │   │  ext4   1.0         f6174c34-87bc-43e7-a399-d089f3073d49                 
  │   ├─pve-vm--105--disk--0
  │   │  ext4   1.0         c1cfe59b-52f8-4d44-abef-947b6b93041e                 
  │   └─pve-vm--106--disk--0
  │      ext4   1.0         e3f0c4b4-479e-4451-a55e-3a5c18f07a7d                 
  └─pve-data_tdata
                                                                              
    └─pve-data-tpool
                                                                                
      ├─pve-data
      │                                                                           
      ├─pve-vm--101--disk--0
      │  ext4   1.0         33013591-73bb-49dd-9c4d-6228cb38f563                 
      ├─pve-vm--102--disk--0
      │  ext4   1.0         d8623707-dfca-40a1-a3a0-aa182a0bbfd4                 
      ├─pve-vm--103--disk--0
      │  ext4   1.0         f40671c8-a1a0-4cea-b92c-1e889340e4cf                 
      ├─pve-vm--100--disk--0
      │  ext4   1.0         917cb8bd-cd93-4d65-a56e-4a591235fc92                 
      ├─pve-vm--104--disk--0
      │  ext4   1.0         f6174c34-87bc-43e7-a399-d089f3073d49                 
      ├─pve-vm--105--disk--0
      │  ext4   1.0         c1cfe59b-52f8-4d44-abef-947b6b93041e                 
      └─pve-vm--106--disk--0
         ext4   1.0         e3f0c4b4-479e-4451-a55e-3a5c18f07a7d                 
sdb  linux_ 1.2   NAS:RAID
                        3d92fe51-2c98-a43d-e0e4-fc125975fa8d                 
└─md127
     ext4   1.0   RAID  aaf397df-5907-4951-9729-78b374749901                 
sdc  linux_ 1.2   NAS:RAID
                        3d92fe51-2c98-a43d-e0e4-fc125975fa8d                 
└─md127
     ext4   1.0   RAID  aaf397df-5907-4951-9729-78b374749901                 
sdd  linux_ 1.2   NAS:RAID
                        3d92fe51-2c98-a43d-e0e4-fc125975fa8d                 
└─md127
     ext4   1.0   RAID  aaf397df-5907-4951-9729-78b374749901                 
sde  linux_ 1.2   NAS:Mirror
                        a49ee451-1e02-4fb0-1960-070661d9251d                 
sdf  linux_ 1.2   NAS:Mirror
                        a49ee451-1e02-4fb0-1960-070661d9251d                 
└─md126
     ext4   1.0   Mirror
                        6387af71-6073-4ed8-aa91-6ad20f3837c1                 
root@pve:~#

Ich vermute es liegt am Dateisystem. Ich würde es auch ändern möchte halt nur keine Daten verlieren.
Kann mir hier bitte jemand helfen.

Vielen Dank im Voraus.

Gruß Tauchi
 
"cat /proc/mdstat" ?

das wird mir nach deinem Befehl ausgegeben:

Code:
root@pve:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [raid1] [raid0] [raid10]
md126 : active raid1 sdf[1]
      1953383360 blocks super 1.2 [2/1] [_U]
      
md127 : active raid5 sdb[0] sdc[1] sdd[2]
      5860270080 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
unused devices: <none>
 
Du hast 2 mdadm sw-raids, 1x raid1 namens md126 wo sde (siehe lsblk) fehlt (disk error oder versehentlich überschrieben ??) und 1x raid5 mit 3 hdd. Was sagt "blkid" und "mdadm --detail --scan" ?
 
Last edited:
  • Like
Reactions: Tauchi
Hast du LVM auf dem Raid? Bitte Ausgaben von pvs, vgs und lvs posten, sowie von lsblk.
Wie waltar schon schreibt, in md126 fehlt eine Platte.

Ansonsten kannst du mal versuchen die Raid Devices zu mounten
mkdir mnt1; mount /dev/md126 mnt1; ls -l mnt1

mkdir mnt2; mount /dev/md127 mnt2; ls -l mnt2
 
  • Like
Reactions: Tauchi
Code:
root@pve:~# blkid
/dev/mapper/pve-root: UUID="fcfaefd9-7e00-4f6c-a88e-ed9237ef6c8b" BLOCK_SIZE="512" TYPE="xfs"
/dev/sdf: UUID="a49ee451-1e02-4fb0-1960-070661d9251d" UUID_SUB="899fbe5f-6dd5-c2c3-aad5-22adc9f47486" LABEL="NAS:Mirror" TYPE="linux_raid_member"
/dev/sdd: UUID="3d92fe51-2c98-a43d-e0e4-fc125975fa8d" UUID_SUB="00e09605-442e-f1b4-ab2f-e723156d25a4" LABEL="NAS:RAID" TYPE="linux_raid_member"
/dev/md127: LABEL="RAID" UUID="aaf397df-5907-4951-9729-78b374749901" BLOCK_SIZE="4096" TYPE="ext4"
/dev/mapper/pve-vm--102--disk--0: UUID="13ccf864-d69a-48a1-abb2-fdb2abb0f435" BLOCK_SIZE="4096" TYPE="ext4"
/dev/sdb: UUID="3d92fe51-2c98-a43d-e0e4-fc125975fa8d" UUID_SUB="305f9404-6601-e7e1-059d-361847f3708c" LABEL="NAS:RAID" TYPE="linux_raid_member"
/dev/mapper/pve-vm--100--disk--0: UUID="917cb8bd-cd93-4d65-a56e-4a591235fc92" BLOCK_SIZE="4096" TYPE="ext4"
/dev/mapper/pve-swap: UUID="673686b9-30b1-4a02-b463-5e2f06006564" TYPE="swap"
/dev/sde: UUID="a49ee451-1e02-4fb0-1960-070661d9251d" UUID_SUB="60d98c1e-afa7-ab89-7f44-d2ba265730b6" LABEL="NAS:Mirror" TYPE="linux_raid_member"
/dev/mapper/pve-vm--103--disk--0: UUID="720dc1e7-939e-46b1-9640-159ddc7ddb14" BLOCK_SIZE="4096" TYPE="ext4"
/dev/sdc: UUID="3d92fe51-2c98-a43d-e0e4-fc125975fa8d" UUID_SUB="516ff3e4-acfd-a5f0-f23e-e2930f5dbb54" LABEL="NAS:RAID" TYPE="linux_raid_member"
/dev/md126: LABEL="Mirror" UUID="6387af71-6073-4ed8-aa91-6ad20f3837c1" BLOCK_SIZE="4096" TYPE="ext4"
/dev/mapper/pve-vm--101--disk--0: UUID="b2ebf137-623e-4af1-bb6b-40d163ac0128" BLOCK_SIZE="4096" TYPE="ext4"
/dev/sda2: UUID="97C6-0C39" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="f6dc967e-2fff-4d17-b7f9-eefa8856b814"
/dev/sda3: UUID="5CtMWi-Vxa2-pYyX-CV0i-yAvi-uqWG-hbSYF9" TYPE="LVM2_member" PARTUUID="381f85a7-9f6a-4c4a-aa42-6fe793f21228"
/dev/sda1: PARTUUID="0153563f-0992-46b2-a0c5-d2413d0ae0ab"

Code:
root@pve:~# mdadm --detail --scan
ARRAY /dev/md/RAID metadata=1.2 name=NAS:RAID UUID=3d92fe51:2c98a43d:e0e4fc12:5975fa8d
ARRAY /dev/md/Mirror metadata=1.2 name=NAS:Mirror UUID=a49ee451:1e024fb0:19600706:61d9251d

Code:
root@pve:~# lsblk
NAME                         MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINTS
sda                            8:0    0 55.9G  0 disk 
├─sda1                         8:1    0 1007K  0 part 
├─sda2                         8:2    0  512M  0 part  /boot/efi
└─sda3                         8:3    0 55.4G  0 part 
  ├─pve-swap                 252:0    0  6.9G  0 lvm   [SWAP]
  ├─pve-root                 252:1    0 24.1G  0 lvm   /
  ├─pve-data_tmeta           252:2    0    1G  0 lvm   
  │ └─pve-data-tpool         252:4    0 15.5G  0 lvm   
  │   ├─pve-data             252:5    0 15.5G  1 lvm   
  │   ├─pve-vm--100--disk--0 252:6    0    4G  0 lvm   
  │   ├─pve-vm--101--disk--0 252:7    0    2G  0 lvm   
  │   ├─pve-vm--102--disk--0 252:8    0    4G  0 lvm   
  │   └─pve-vm--103--disk--0 252:9    0   12G  0 lvm   
  └─pve-data_tdata           252:3    0 15.5G  0 lvm   
    └─pve-data-tpool         252:4    0 15.5G  0 lvm   
      ├─pve-data             252:5    0 15.5G  1 lvm   
      ├─pve-vm--100--disk--0 252:6    0    4G  0 lvm   
      ├─pve-vm--101--disk--0 252:7    0    2G  0 lvm   
      ├─pve-vm--102--disk--0 252:8    0    4G  0 lvm   
      └─pve-vm--103--disk--0 252:9    0   12G  0 lvm   
sdb                            8:16   0  2.7T  0 disk 
└─md127                        9:127  0  5.5T  0 raid5
sdc                            8:32   0  2.7T  0 disk 
└─md127                        9:127  0  5.5T  0 raid5
sdd                            8:48   0  2.7T  0 disk 
└─md127                        9:127  0  5.5T  0 raid5
sde                            8:64   0  1.8T  0 disk 
sdf                            8:80   0  1.8T  0 disk 
└─md126                        9:126  0  1.8T  0 raid1

Code:
root@pve:~# lvs
  LV            VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- <15.52g             35.49  1.75                           
  root          pve -wi-ao---- <24.13g                                                   
  swap          pve -wi-ao----  <6.88g                                                   
  vm-100-disk-0 pve Vwi-a-tz--   4.00g data        36.73                                 
  vm-101-disk-0 pve Vwi-aotz--   2.00g data        49.98                                 
  vm-102-disk-0 pve Vwi-a-tz--   4.00g data        56.43                                 
  vm-103-disk-0 pve Vwi-aotz--  12.00g data        6.51                                   
root@pve:~# vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  pve   1   7   0 wz--n- 55.39g <6.88g
root@pve:~# pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/sda3  pve lvm2 a--  55.39g <6.88g
 
Du hast 2 mdadm sw-raids, 1x raid1 namens md126 wo sde (siehe lsblk) fehlt (disk error oder versehentlich überschrieben ??) und 1x raid5 mit 3 hdd. Was sagt "blkid" und "mdadm --detail --scan" ?

Ich habe nichts überschrieben. Das wollte ich ja unbedingt vermeiden.
 
As md126+md127 are ext4 filesystems what about the testmounts colleague ubu wrote as they should work ?!
 
  • Like
Reactions: Tauchi
Code:
root@pve:~# mkdir mnt1; mount /dev/md126 mnt1; ls -l mnt1
total 44
-rw-------   1 root users  8192 Nov  5 16:59 aquota.group
-rw-------   1 root users  7168 Nov  5 16:59 aquota.user
drwxr-sr-x   3 root users  4096 Aug 23  2016 backups
drwx------   2 root root  16384 Feb 13  2016 lost+found
drwxrwsr-x+ 12 root users  4096 Dec  5  2022 Mirror
drwxrwsr-x   2 root users  4096 Mar 24  2021 TimeMachine
root@pve:~# mkdir mnt2; mount /dev/md127 mnt2; ls -l mnt2
mkdir: cannot create directory ‘mnt2’: File exists
mount: /root/mnt2: /dev/md127 already mounted on /root/mnt2.
       dmesg(1) may have more information after failed mount system call.
total 44
-rw-------   1 root root   6144 Nov  5 16:59 aquota.group
-rw-------   1 root root   7168 Nov  5 16:59 aquota.user
drwx------   2 root root  16384 Jan 19  2016 lost+found
drwxrwsr-x   2 root users  4096 Feb 13  2016 Quarantäne
drwxrwsr-x+ 16 root users  4096 Dec  5  2022 RAID
root@pve:~#
 
Dann sind doch nun deine Daten alle noch da, außer daß dir noch eine Platte im raid1 fehlt !!
Aber noch meldet sich ja die sde (1.8T), muß erstmal wieder Mitglied werden und in sync kommen, probier mal:
mdadm --query /dev/sde
mdadm --assemble --scan
cat /proc/mdstat
 
  • Like
Reactions: Tauchi
Code:
root@pve:~# mdadm --query /dev/sde
/dev/sde: is not an md array
/dev/sde: device 0 in 2 device mismatch raid1 /dev/md/Mirror.  Use mdadm --examine for more detail.
root@pve:~# mdadm --assemble --scan
mdadm: Found some drive for an array that is already active: /dev/md/Mirror
mdadm: giving up.
root@pve:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raid0] [raid10]
md126 : active raid5 sdc[1] sdd[2] sdb[0]
      5860270080 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md127 : active raid1 sdf[1]
      1953383360 blocks super 1.2 [2/1] [_U]
      
unused devices: <none>

das sieht ja schon mal nicht so schlecht aus.
Wie mach ich die Platten in Proxmox verfügbar.

Schon mal richtig gut das die Daten alle noch da sind.

Danke für die Hilfe bisher.
 
Versuch's mal mit "mdadm /dev/md127 -a /dev/sde" und was sagt dann "cat /proc/mdstat" - rebuilding ?
 
  • Like
Reactions: Tauchi
Code:
root@pve:~# mdadm /dev/md127 -a /dev/sde
mdadm: added /dev/sde
root@pve:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raid0] [raid10]
md126 : active raid5 sdc[1] sdd[2] sdb[0]
      5860270080 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md127 : active raid1 sde[2] sdf[1]
      1953383360 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  0.2% (4206464/1953383360) finish=162.1min speed=200307K/sec
      
unused devices: <none>

for me looks good.

Jetzt nur noch in Proxmox verfügbar machen.
 
Der rebuild läuft im Hintergrund zu Ende (wenn es keine I/O error von sde gibt...) und nun :
umount mnt1
umount mnt2
Folgende 2 Zeilen unten mit in die /etc/fstab eintragen:
UUID=aaf397df-5907-4951-9729-78b374749901 /RAID ext4 nofail,defaults 0 0
UUID=6387af71-6073-4ed8-aa91-6ad20f3837c1 /Mirror ext4 nofail,defaults 0 0
mkdir -p /RAID /Mirror
mount -a
Dann Datacenter -> Storage -> Add -> Directory -> ID RAID + Directory /RAID -> Add
und Datacenter -> Storage -> Add -> Directory -> ID Mirror + Directory /Mirror-> Add

Zudem solltest du die Platte überprüfen: "smartctl -t short /dev/sde", 5min warten
was sagt "smartctl -a /dev/sde" ?
 
  • Like
Reactions: Tauchi
arbeitet alles noch ich schicke dir die smart Auswertung morgen früh. Vielen dank für deine Hilfe
 
Code:
root@pve:/# smartctl -a /dev/sde
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.8.4-2-pve] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Toshiba 3.5" DT01ACA... Desktop HDD
Device Model:     TOSHIBA DT01ACA200
Serial Number:    84A5ERRGS
LU WWN Device Id: 5 000039 ffad090e9
Firmware Version: MX4OABB0
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database 7.3/5319
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sat Nov  9 08:46:31 2024 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (14822) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 247) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   140   140   054    Pre-fail  Offline      -       69
  3 Spin_Up_Time            0x0007   131   131   024    Pre-fail  Always       -       281 (Average 299)
  4 Start_Stop_Count        0x0012   099   099   000    Old_age   Always       -       6855
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   124   124   020    Pre-fail  Offline      -       33
  9 Power_On_Hours          0x0012   099   099   000    Old_age   Always       -       13640
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       5363
192 Power-Off_Retract_Count 0x0032   094   094   000    Old_age   Always       -       8092
193 Load_Cycle_Count        0x0012   094   094   000    Old_age   Always       -       8092
194 Temperature_Celsius     0x0002   162   162   000    Old_age   Always       -       37 (Min/Max 11/48)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     13640         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

root@pve:/#

Das einbinden in Proxmox hat super funktioniert.
Vielen dank für deine Hilfe.
 
Last edited:
Smartctl sieht gut aus bzgl. der ehemalig md-raid rausgeflogenen sde Hdd und ich würde mir jetzt keine Sorgen bzgl. eines Austausches machen. Es ist und bleibt zwar unbekannt, warum die sde "out of sync" wurde und temporär kein MD-Mitglied mehr war, aber ist nun mal passiert und nun ist es ja wieder gut. So this is done, have fun ... again with your Proxmox :)
 
Last edited:
  • Like
Reactions: Tauchi
Noch mal vielen vielen Dank für deine Hilfe.

Es wird bestimmt nicht die letzte Frage gewesen sein.
 
Ich habe noch ein paar Frage:

  1. Ist möglich den Raid 5 auszulösen und daraus ein RaidZ zu machen? so würde ich ja wenn ich es richtig verstanden habe den Speicher verdoppeln. Welches ist hier das beste Zukunft system?
  2. Kann ich ohne Daten Verlust das Dateisystem auf von ext 4 auf zfs?
Was würdet ihr hier generell empfehlen?
  1. Wie kannn ich die Platten in einen Container einbinden? Der RAID5 ist voll mit alten Serien und Filmen aus meiner Kindheit diese würde ich gerne in jellyfin benutzen.
  2. Kann ich es den in mehreren Systemen einbinden also mit zugriff auf die Daten?
 
Ist möglich den Raid 5 auszulösen und daraus ein RaidZ zu machen? so würde ich ja wenn ich es richtig verstanden habe den Speicher verdoppeln. Welches ist hier das beste Zukunft system?
Geschmacksfrage. Raidz kann Kompression, die mehr oder weniger abhängig von den Daten effektiv ist. Auslösen nur durch vorheriges runterkopieren und später zurück oder aus Backup.
Kann ich ohne Daten Verlust das Dateisystem auf von ext 4 auf zfs?
Wie zuvor Auswechseln nur durch vorheriges runterkopieren und später zurück oder aus Backup, Verlustrate hängt von deinen Kopierkünsten und Backup/Restorezustand ab ... :)
Wie kannn ich die Platten in einen Container einbinden? Der RAID5 ist voll mit alten Serien und Filmen aus meiner Kindheit diese würde ich gerne in jellyfin benutzen.
Per host nfs oder durchgemappte disks.
Kann ich es den in mehreren Systemen einbinden also mit zugriff auf die Daten?
Dann per host nfs oder durchgemappte disks per nfs exportieren, smb ist wackelig und langsamer.
 
  • Like
Reactions: Johannes S

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!