Korrekte Konfiguration

Jan 30, 2020
18
2
3
29
Austria
Guten Abend,

ich bin im bereich Proxmox ziemlich neu. Habe Proxmox auf einem Dell T30 laufen mit einer 240gb SSD, 2xHDD 2TB und 1xHDD 1TB. Der Arbeitsspeicher beträgt 32gb. Zurzeit läuft eine VM mit Nextcloudpi installiert auf einem Debian Buster. Debian ist auf der SSD installiert genau wie Proxmox. Die Daten sind auf der 2TB HDD. Die HDD sind mit ZFS Mirror eingehängt. Die 1TB Festplatte mit ZFS formatiert.
Pro werden über Proxmox 2x Backups auf die 1TB Festplatte gemacht und 1x die Woche über die Backuplösung von Nextcloudpi auf einen USB Stick.

ausgabe von storage.cfg

Code:
dir: local
    path /var/lib/vz
    content vztmpl,backup,iso

lvmthin: local-lvm
    thinpool data
    vgname pve
    content rootdir,images

zfspool: wdm2tb
    pool wdm2tb
    content images,rootdir
    mountpoint /wdm2tb
    nodes heimserver

zfspool: festplatte1tb
    pool festplatte1tb
    content rootdir,images
    mountpoint /festplatte1tb
    nodes heimserver

dir: storage
    path /wdm2tb/storage
    content vztmpl,backup,images,iso
    maxfiles 1
    shared 0

dir: backup
    path /festplatte1tb/backup
    content images,backup
    maxfiles 3
    shared 0

qm config

Code:
balloon: 2048
bootdisk: virtio0
cores: 4
ide2: none,media=cdrom
memory: 20480
name: nextcloud
net0: virtio=82:6A:33:95:9E:30,bridge=vmbr0,firewall=1
numa: 0
onboot: 1
ostype: l26
scsihw: virtio-scsi-pci
smbios1: uuid=d28680ff-69d6-400f-859e-41f99e5e97f8
sockets: 1
usb0: host=2-2,usb3=1
usb1: host=05dc:a83a,usb3=1
usb2: host=0c0b:b159,usb3=1
virtio0: local-lvm:vm-100-disk-0,size=80G
virtio1: wdm2tb:vm-100-disk-1,size=300G
vmgenid: 637aa2b2-bc16-42c1-a3b8-fb785a014cf1

lsblk host
Code:
sda                            8:0    0   1.8T  0 disk
|-sda1                         8:1    0   1.8T  0 part
`-sda9                         8:9    0     8M  0 part
sdb                            8:16   0 223.6G  0 disk
|-sdb1                         8:17   0  1007K  0 part
|-sdb2                         8:18   0   512M  0 part /boot/efi
`-sdb3                         8:19   0 223.1G  0 part
  |-pve-swap                 253:0    0     8G  0 lvm  [SWAP]
  |-pve-root                 253:1    0  55.8G  0 lvm  /
  |-pve-data_tmeta           253:2    0   1.4G  0 lvm
  | `-pve-data-tpool         253:4    0 140.5G  0 lvm
  |   |-pve-data             253:5    0 140.5G  0 lvm
  |   |-pve-vm--100--disk--0 253:6    0    80G  0 lvm
  |   `-pve-vm--101--disk--0 253:7    0    64G  0 lvm
  `-pve-data_tdata           253:3    0 140.5G  0 lvm
    `-pve-data-tpool         253:4    0 140.5G  0 lvm
      |-pve-data             253:5    0 140.5G  0 lvm
      |-pve-vm--100--disk--0 253:6    0    80G  0 lvm
      `-pve-vm--101--disk--0 253:7    0    64G  0 lvm
sdc                            8:32   0 931.5G  0 disk
|-sdc1                         8:33   0 931.5G  0 part
`-sdc9                         8:41   0     8M  0 part
sdd                            8:48   0   1.8T  0 disk
|-sdd1                         8:49   0   1.8T  0 part
`-sdd9                         8:57   0     8M  0 part
zd0                          230:0    0   300G  0 disk
`-zd0p1                      230:1    0   300G  0 part


und lsblk an der VM

Code:
sda      8:0    1 59,6G  0 disk
└─sda1   8:1    1 59,6G  0 part /mnt/backupstick
sr0     11:0    1 1024M  0 rom
vda    254:0    0   80G  0 disk
├─vda1 254:1    0   55G  0 part /
├─vda2 254:2    0    1K  0 part
└─vda5 254:5    0   25G  0 part [SWAP]
vdb    254:16   0  300G  0 disk
└─vdb1 254:17   0  300G  0 part /var/nextcloud

zfslist

Code:
NAME                   USED  AVAIL     REFER  MOUNTPOINT
festplatte1tb          247G   652G      104K  /festplatte1tb
festplatte1tb/backup   247G   652G      247G  /festplatte1tb/backup
festplatte1tb/share     96K   652G       96K  /festplatte1tb/share
wdm2tb                 438G  1.33T       96K  /wdm2tb
wdm2tb/storage         128G  1.33T      128G  /wdm2tb/storage
wdm2tb/vm-100-disk-1   309G  1.56T     75.5G  -

zpoollist

Code:
NAME            SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
festplatte1tb   928G   247G   681G        -         -     0%    26%  1.00x    ONLINE  -
wdm2tb         1.81T   204G  1.61T        -         -     0%    10%  1.00x    ONLINE  -

ist hier alles richtig konfiguriert?


Und eine Frage noch, ich hätte gerne einen FTP-und Samba Server über die 1TB Festplatte wie realisiere ich dies am besten.


MFG
 
Last edited:
funktioniert alles, nur möchte ich auf nummer sicher gehen, wenn eine Festplatte z.b. ausfällt diese dann auch ohne Probleme ersetzen zu können.

Öh... was ist denn "ohne Probleme"? Wenn du die Daten von sdb (also die SSD) nicht gesichert hast fangen die Probleme eigentlich schon an.

Das beste Setup was ich jedem empfehlen kann ist gleich nur einen ZFS-Pool mit Redundanz anzulegen und dort PVE drauf zu installieren, denn dann muss man sich über all die Probleme, die in anderen Setups (wie in deinem) auftauchen keine Probleme mehr machen.
 
Öh... was ist denn "ohne Probleme"? Wenn du die Daten von sdb (also die SSD) nicht gesichert hast fangen die Probleme eigentlich schon an.

Das beste Setup was ich jedem empfehlen kann ist gleich nur einen ZFS-Pool mit Redundanz anzulegen und dort PVE drauf zu installieren, denn dann muss man sich über all die Probleme, die in anderen Setups (wie in deinem) auftauchen keine Probleme mehr machen.

Leider hat mein mainboard keine Anschlüsse mehr.

Wie sieht's da aus wenn ich diese daten mit veeam sichere müsste funktionieren oder?
 
Wie sieht's da aus wenn ich diese daten mit veeam sichere müsste funktionieren oder?

Klar ist Sicherung immer wichtig (und nein veeam brauch man nicht dafür), aber es ist generell alles schlechter als gleich ein System zu haben, was Fehler tolerieren kann (RAID x, x > 0).

Leider hat mein mainboard keine Anschlüsse mehr.

Es geht nicht darum mehr einzubauen, sondern ein ein besseres System mit dem vorhandenen Ressourcen zu bekommen. Wenn deine SSD kaputt geht startet dein Rechner nicht mehr, weil das Betriebssystem da drauf ist. Warum wurde das Betriebssystem nicht auf dem ZFS installiert, denn dann wäre es gleich fehlertoleranter.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!