[SOLVED] Gleiche Speicherplatzbelegung beider Festplatten

LuiMen

New Member
May 15, 2022
21
1
3
Hi,

warum wird mir in der Proxmox GUI angezeigt, dass beide Festplatten gleich belegt sind.

Wenn ich direkt auf dem Server schaue, stimmen die Werte jedoch nicht überein.
 

Attachments

  • Bildschirmfoto vom 2022-05-15 22-04-34_1.png
    Bildschirmfoto vom 2022-05-15 22-04-34_1.png
    11.3 KB · Views: 7
  • Bildschirmfoto vom 2022-05-15 22-04-02.png
    Bildschirmfoto vom 2022-05-15 22-04-02.png
    18.6 KB · Views: 7
  • sda.png
    sda.png
    17.3 KB · Views: 7
Du solltest schon mehr Infos zu deinem Storage Layout etc geben und die Bilder besser erklären.
 
Last edited:
Du solltest schon mehr Infos zu deinem Storage Layout etc geben und die Bilder besser erklären.
Wusste nicht genau, welche Infos benötigt werden.

Also es gibt eine sda und eine sdb Festplatte. In der Proxmox GUI wird bei beiden der gleiche Speicherplatzverbrauch angezeigt, obwohl die sdb Festplatte tatsächlich weniger belegt ist.
 
Was hast du denn für ein Storage-Layout am laufen mit den beiden Disks?

Dinge wie pvesm status, lvdisplay, vgdisplay, zpool status, df -h, cat /etc/pve/storage.cfg, lsblk, fdisk -l /dev/sda, fdisk -l /dev/sdb würden z.B. mehr Info zum Storage und dessen Zustand/Verwendung geben.
 
Was hast du denn für ein Storage-Layout am laufen mit den beiden Disks?

Dinge wie pvesm status, lvdisplay, vgdisplay, zpool status, df -h, cat /etc/pve/storage.cfg, lsblk, fdisk -l /dev/sda, fdisk -l /dev/sdb würden z.B. mehr Info zum Storage und dessen Zustand/Verwendung geben.
Danke für die Rückmeldung :)

Pvesm status ergibt folgende Anzeige:

Code:
local         dir     active       958823536       530334856       379709416   55.31%
sdb           dir     active       958823536       530334856       379709416   55.31%

lvdisplay:

Code:
  --- Logical volume ---
  LV Path                /dev/ex-DUS4-1A2013-vg/root
  LV Name                root
  VG Name                ex-DUS4-1A2013-vg
  LV UUID                KlsM9o-VRfk-QK3F-J27S-MBUT-q7r4-msqytW
  LV Write Access        read/write
  LV Creation host, time ex-DUS4-1A2013, 2022-03-11 01:03:23 +0100
  LV Status              available
  # open                 1
  LV Size                <930.08 GiB
  Current LE             238100
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
  
  --- Logical volume ---
  LV Path                /dev/ex-DUS4-1A2013-vg/swap_1
  LV Name                swap_1
  VG Name                ex-DUS4-1A2013-vg
  LV UUID                z3AeIj-Ht5j-WLrP-Y1fH-KAGE-eb1Q-Vfi4lT
  LV Write Access        read/write
  LV Creation host, time ex-DUS4-1A2013, 2022-03-11 01:03:23 +0100
  LV Status              available
  # open                 2
  LV Size                976.00 MiB
  Current LE             244
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

df -h:

Code:
Filesystem                             Size  Used Avail Use% Mounted on
udev                                    63G     0   63G   0% /dev
tmpfs                                   13G  2.1M   13G   1% /run
/dev/mapper/ex--DUS4--1A2013--vg-root  915G  506G  363G  59% /
tmpfs                                   63G   66M   63G   1% /dev/shm
tmpfs                                  5.0M     0  5.0M   0% /run/lock
/dev/sdb1                              916G   28K  870G   1% /mnt/sdb
/dev/sda1                              470M  240M  206M  54% /boot
/dev/fuse                              128M   52K  128M   1% /etc/pve
tmpfs                                   13G     0   13G   0% /run/user/0

cat /etc/pve/storage:
Code:
dir: local
        path /var/lib/vz
        content images,rootdir,snippets,vztmpl,iso
        prune-backups keep-all=1
        shared 0

dir: sdb
        path /mnt/sdb1
        content snippets,rootdir,iso,images,backup,vztmpl
        nodes ex-DUS4-1A2013,ex-DUS4-1D0732,ex-DUS4-1A1508,ex-DUS3H-1D1032
        prune-backups keep-last=4
        shared 0

fdisk -l /dev/sda:

Code:
Disk /dev/sda: 931.51 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: Samsung SSD 870
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xb29935e4

Device     Boot   Start        End    Sectors  Size Id Type
/dev/sda1  *       2048     999423     997376  487M 83 Linux
/dev/sda2       1001470 1953523711 1952522242  931G  5 Extended
/dev/sda5       1001472 1953523711 1952522240  931G 8e Linux LVM

fdisk -l /dev/sdb:

Code:
Disk /dev/sdb: 931.51 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: Samsung SSD 870
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x6c8735a4

Device     Boot Start        End    Sectors   Size Id Type
/dev/sdb1        2048 1953525167 1953523120 931.5G 83 Linux
 
Wenn du dir den Output von "df -h" anguckst dann ist deine /dev/sdb1 Partition unter dem Mountpoint "/mnt/sdb" eingehängt. In deiner storage.cfg hast du den Mountpunkt für den Directoy-Storage "sdb" aber als "/mnt/sdb1" angegeben. PVE erzeugt da also einen neuen leeren Ordner im Pfad "/mnt/sdb1" und das ist dann ein normaler Ordner auf einem Root-Dateisystem und der ist damit dann Teil von sda.
Wenn du den Pfad von deinen "sdb" Directory Storage auf deinen korrekten Mountpoint abänderst, also "/mnt/sdb", dann landen die Daten auch auf sdb1. Aktuell zeigen beide Storages auf sda, daher auch bei beiden die gleiche Größe, weil beide nur die Nutzung von sda anzeigen.
 
Last edited:
  • Like
Reactions: LuiMen
Außérdem hast du PVE nicht mitgeteilt, das dein Directory Storage auf einen Mountpoint verweist den du selbst eingehängt hast (z.B. über fstab). Dann kann es zu Problemen kommen, weil dann PVE selbst versucht Ordner zu erstellen oder das Einhängen verhindert. Das solltest du mit pvesm set sdb --is_mountpoint yes ändern. Das vergessen die meisten, weil es nur über die CLI geht.

Siehe im Manual: https://pve.proxmox.com/pve-docs/pvesm.1.html
--is_mountpoint <string> (default = no)
Assume the given path is an externally managed mountpoint and consider the storage offline if it is not mounted. Using a boolean (yes/no) value serves as a shortcut to using the target path in this field.
 
Last edited:
  • Like
Reactions: LuiMen

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!