Newbie: Raid1-Festplatte einbinden ( Dedicated Server Linux )

NoFloXx

Member
Jun 10, 2021
47
3
13
40
Nabend ihr Lieben,

ich bin neu in Sachen Linux und Server.
Habe mir den Dedicated Server Linux von STRATO bestellt, da ich ihn für 19 EUR im Monat für 24 Monate angeboten bekommen habe.

Soweit habe ich Proxmox schon zum laufen bekommen.
Allerdings bekomme ich meine RAID1-Festplatte nicht eingebunden.

Kann mir da jemand helfen, was ich da machen muss?
Und was muss ich danach tun, damit die Festplatte automatisch nach einem Reboot des Servers automatisch wieder gemounted wird??

Danke schon mal.


P.S.:
Keine Angst, bisher läuft nichts wichtiges auf Proxmox und dem Server - es ist einfach zum Testen und 'rumspielen'. Später soll da vll mal meine Webseite drüber laufen, sowie ein Mailserver....
 

Attachments

  • capture_001_10062021_011025.jpg
    capture_001_10062021_011025.jpg
    80.4 KB · Views: 19
Wo steht das?
Also mein Server hat 32GB RAM und 128GB SSD, sowie 2x 2TB-HDD im RAID 1.
 
Wie genau wolltest du die beiden HDDs einbinden? Software raid über ZFS? Dazu müsstest du einmal mit dem Partitionierungstool deiner Wahl die bisherigen Partitionen löschen, damit Proxmox die als freie Laufwerke akzeptiert. Danach kannst du im WebUI über "DeinNodeName -> Disks -> ZFS -> Create: ZFS" einen mirror Pool aus beiden HDDs anlegen.
ZFS schluckt aber ordentlich RAM (bei dir wäre 16GB RAM der Standardwert, den man aber auf 4-8GB senken könnte) und die HDDs müssten an einem HBA und dürften an keinem Raid-Controller hängen.
Sonst wären noch MDADM oder LVM eine Software-Raid Option. Die werden aber nicht offiziell von Proxmox unterstützt und du müsstest alles selbst per CLI einrichten.
 
Last edited:
Naja, wie ich die HDDs einbinden wollte, weiß ich nicht. An dem RAID 1 kann ich nicht machen, da der Server so vorgegeben ist. Das RAID 1 kann ich auch nicht auflösen - jedenfalls wüsste ich nicht wie.
Ich habe auch keine Ahnung, wie ich die Partitionen lösche, weil GParted sagt mir z.B. immer, dass ich die HDD nur aushängen kann - mehr nicht, da sie in Verwendung sind?
Ich möchte die 2x 2TB HDD einfach nur für die VMs nutzen können in Proxmox. Der RAID 1 ist da gar nicht unpraktisch, da sie ja dann gespiegelt werden. Oder ist der Gedanke falsch?
 
Naja, wie ich die HDDs einbinden wollte, weiß ich nicht. An dem RAID 1 kann ich nicht machen, da der Server so vorgegeben ist. Das RAID 1 kann ich auch nicht auflösen - jedenfalls wüsste ich nicht wie.
Ich habe auch keine Ahnung, wie ich die Partitionen lösche, weil GParted sagt mir z.B. immer, dass ich die HDD nur aushängen kann - mehr nicht, da sie in Verwendung sind?
Ich möchte die 2x 2TB HDD einfach nur für die VMs nutzen können in Proxmox. Der RAID 1 ist da gar nicht unpraktisch, da sie ja dann gespiegelt werden. Oder ist der Gedanke falsch?
Hab mir nochmal dein Screenshot angeguckt. Beide HDDs werden ja einzeln angezeigt, ist also ein Software Raid auf Betriebssystemebene und kein Hardware-Raid oder Software-Raid über einen Controller. Denn dann würde dir das nur als ein Laufwerk angezeigt werden. ZFS ist es auch nicht, denn dann würde es nicht als "Raid1" aufgeführt werden. Muss also bereits als MDADM oder LVM eingerichtet sein.

Interessant wäre jetzt also ob es ein LVM oder MDADM ist. Was gibt denn vgs, lvs und mdadm --examine --brief --scan --config=partitions aus?

Wenn du nichts ändern willst könntest du versuchen einfach einen neuen Storage vom Typ "Directory" mit dem Mountpoint "/data" anzulegen. Dann sollte "/data" eigentlich für Proxmox nutzbar sein. DAs kann man über "Datacenter -> Storage -> Add -> Directory" machen. Vermutlich musst du dann aber noch die /etc/pve/storage.conf bearbeiten und dem Storage ein "is_mountpoint yes" verpassen, damit es keinen Fehler beim reboot wegen bereits existierenden Ordnern gibt.
 
Last edited:
Herzlichen Dank für deine ausführliche Antwort.
Was muss ich denn genau eingeben?
Ich habe es mal so probiert:
Code:
mdadm --examine --brief --scan  --config=partitions
Da kam dann einfach nur eine neue Zeile mit root.
Bei den anderen beiden Befehlen kam nur Unbekannte Option.
Also bei dieser Eingabe:
Code:
vgs --examine --brief --scan  --config=partitions
Code:
lvs  --examine --brief --scan  --config=partitions

Entschuldigt bitte meine Unwissenheit. Bin ganz neu in Sachen Linux und teste halt nur im Moment. :)
Bin aber gewillt, mich näher und intensiver mit Linux zu befassen.
 
Last edited:
Was muss ich denn genau eingeben?
Ich habe es mal so probiert:
Code:
mdadm --examine --brief --scan  --config=partitions
Da kam dann einfach nur eine neue Zeile mit root.
Bei den anderen beiden Befehlen kam nur Unbekannte Option.
Dann konnte er wohl keine MDADM arrays finden. Ist dann wohl kein MDADM.
Also bei dieser Eingabe:
Code:
vgs --examine --brief --scan  --config=partitions
Code:
lvs  --examine --brief --scan  --config=partitions
Das ist tatsächlich nur...
Code:
vgs
lvs
...ohne parameter dahinter. Wäre das ein Raid Array über LVM sollten die Befehle eigentlich entsprechende Logic Volumes oder Volume Groups für das Raid Array anzeigen.
 
Ohne die Parameter kommt bei vgs und lvs nur die neue Zeile mit root.
Bei mdadm erhalte ich die Meldung 'Usage: mdadm -- help for help'.

Scheint wohl doch ein mdadm zu sein?
 
Also Proxmox hat iwas geupdatet und seit dem komme ich nicht mehr auf den Proxmox-Server.
Was mir noch aufgefallen ist, dass im Boot das hier auftaucht:
Code:
Activating swap /dev/disk/by-label/swap0...
[  OK  ] Listening on Load/Save RF …itch Status /dev/rfkil[   11.825151] Adding 8000508k swap on /dev/sda2.  Priority:-2 extents:1 across:8000508k SSFS
l Watch.
[  OK  ] Activated swap /dev/disk/by-label/swap0.
[  OK  ] Started File System Check on /dev/disk/by-label/boot.
[  OK  ] Found device /dev/disk/by-label/data.
[  OK  ] Started MD array monitor.
[   11.946447] ipmi_si IPI0001:00: IPMI message handler: Found new BMC (man_id: 0x002a7c, prod_id: 0x0801, dev_id: 0x20)
         Starting File System Check on /dev/disk/by-label/data...
[  OK  ] Started File System Check Daemon to report status.
[   12.010252] ipmi_si IPI0001:00: IPMI kcs interface initialized
Checking in pro[   12.023254] ipmi_ssif: IPMI SSIF Interface driver
[   12.036820] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
         Mounting /boot...
[  OK  ] Reached target Swap.
[  OK  ] Started udev Wait for Complete Device Initialization.
[  OK  ] Started Helper to synchronize boot up for ifupdown.
[  OK  ] Mounted /boot.
[  OK  ] Reached target ZFS pool import target.
         Starting Mount ZFS filesystems...
         Starting Wait for ZFS Volume (zvol) links in /dev...
[  OK  ] Started Mount ZFS filesystems.
[  OK  ] Started Wait for ZFS Volume (zvol) links in /dev.
[  OK  ] Started File System Check on /dev/disk/by-label/data.
         Mounting /data...
[  OK  ] Reached target ZFS volumes are read[   12.344032] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
y.
[  OK  ] Mounted /data.
[  OK  ] Reached target Local File Systems.

Habe sogar den Server neu installieren lassen und frisch Proxmox installiert und ich komme nach der frischen Installation nicht drauf.
Irgendwas haben die geändert?! Die md0 ist auch nicht die Boot-SSD, sondern die beiden HDDs mit 2TB im RAID 1.
Was kann ich jetzt tun??

/edit
Habe den Fehler gefunden. Musste unter /etc/fstab den /data-Eintrag löschen.



Bei 'mdadm --detail /dev/md0' bekomme ich das hier:

Code:
root@***:~# mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Nov  3 18:17:41 2016
        Raid Level : raid1
        Array Size : 1953381376 (1862.89 GiB 2000.26 GB)
     Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Jun 12 02:59:53 2021
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : ***.stratoserver.net:0  (local to host ***.stratoserver.net)
              UUID : 5d93e242:99091400:09f7c0e7:3cb9ed74
            Events : 8

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
 
Last edited:
Vermutlich musst du dann aber noch die /etc/pve/storage.conf bearbeiten und dem Storage ein "is_mountpoint yes" verpassen, damit es keinen Fehler beim reboot wegen bereits existierenden Ordnern gibt.
Diese Datei ist bei mir komplett leer.
 
In dem Du etwas liest. Es gibt im Wiki ein ganzes Kapitel dazu. Außerdem kommt es auch drauf an was Du da speichern willst und welches File/Storage System Du bevorzugt. Du musst schon wissen was Du willst. Anders geht es leider nicht. Proxmox ist nun mal ein komplexes System.
 
  • Like
Reactions: pakuzaz
Habs hinbekommen, in dem ich das mdadm gestoppt habe, die Partitionen von den HDDs gelöscht und diese dann in Proxmox als ZFS hinzugefügt habe. Diese wurden dann erkannt.

Habe jetzt aber das Problem, dass ich in den VMs kein Internet habe.
Wie richte ich die Bridge da korrekt ein, dass jede VM eine eigene, interne, feste IP bekommt und Internet hat?
 
Die sieht so aus:
Code:
  GNU nano 3.2                          /etc/network/interfaces

# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage parts of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT read its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

iface eth0 inet dhcp

iface eth1 inet dhcp

auto vmbr0
iface vmbr0 inet static
        address 81.169.178.96/32
        gateway 81.169.178.1
        bridge-ports eth1
        bridge-stp off
        bridge-fd 0

auto vmbr1
iface vmbr1 inet static
        address 12.168.100.1/32
        bridge-ports none
        bridge-stp off
        bridge-fd 0

Das vmbr1 war zum Test, das klappt aber leider nicht....
 
Code:
iface eth0 inet dhcp

iface eth1 inet dhcp
Das sollte auf "manual" und nicht auf "dhcp" gestellt sein.
Statische IP, Gateway etc vergibst du ja schon manuell über die Bridge die mit der NIC verbunden ist.

Code:
auto vmbr1
iface vmbr1 inet static
        address 12.168.100.1/32
        bridge-ports none
        bridge-stp off
        bridge-fd 0
Du hast die Bridge vmbr1 auch mit keiner NIC verbunden. Ohne Routing durch den Host kommt dann auch nichts an der vmbr1 ins Internet.
 
Last edited:
Okay, habe ich geändert, zum Mindest beim eth1, weil wenn ich den vmbr0 auf den eth0 setze, bekomme ich kein Internet. Der Port schein tot zu sein.

Und wie route ich die vmbr1 z.B. mit den VMs dann??
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!