[SOLVED] LVM Voll ?

Steffenprox

Member
Feb 22, 2020
58
13
13
35
Moin,
In der Weboberfläche wird mir angezeigt das anscheinen das Verzeichnis /dev/nvme0n1p3 zu 97% ausgelastet wird. Ist das normal oder liegt ein Fehler vor in meiner Proxmox Installation? Bisher habe ich keine Probleme bemerkt.

proxmox-ve: 6.3-1 (running kernel: 5.4.78-2-pve)
pve-manager: 6.3-3 (running version: 6.3-3/eee5f901)
pve-kernel-5.4: 6.3-3
pve-kernel-helper: 6.3-3
pve-kernel-5.4.78-2-pve: 5.4.78-2
pve-kernel-5.4.78-1-pve: 5.4.78-1
pve-kernel-5.4.73-1-pve: 5.4.73-1
pve-kernel-5.4.65-1-pve: 5.4.65-1
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.0.4-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.16-pve1
libproxmox-acme-perl: 1.0.7
libproxmox-backup-qemu0: 1.0.2-1
libpve-access-control: 6.1-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.3-2
libpve-guest-common-perl: 3.1-3
libpve-http-server-perl: 3.1-1
libpve-storage-perl: 6.3-3
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.3-1
lxcfs: 4.0.3-pve3
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.0.6-1
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.4-3
pve-cluster: 6.2-1
pve-container: 3.3-2
pve-docs: 6.3-1
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-3
pve-firmware: 3.1-3
pve-ha-manager: 3.1-1
pve-i18n: 2.2-2
pve-qemu-kvm: 5.1.0-7
pve-xtermjs: 4.7.0-3
qemu-server: 6.3-2
smartmontools: 7.1-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 0.8.5-pve1

fdisk -l
Disk /dev/loop0: 50 GiB, 53687091200 bytes, 104857600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/nvme0n1: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 970 EVO 500GB
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 847FEC37-83DC-4E1D-A72D-C577421BE247

Device Start End Sectors Size Type
/dev/nvme0n1p1 34 2047 2014 1007K BIOS boot
/dev/nvme0n1p2 2048 1050623 1048576 512M EFI System
/dev/nvme0n1p3 1050624 976773134 975722511 465.3G Linux LVM


Disk /dev/sda: 238.5 GiB, 256060514304 bytes, 500118192 sectors
Disk model: M4-CT256M4SSD2
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: TOSHIBA MQ02ABF1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 1340AA31-D12B-4660-A7E6-49783817F463

Device Start End Sectors Size Type
/dev/sdb1 2048 1953525134 1953523087 931.5G Linux filesystem


Disk /dev/mapper/pve-swap: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/pve-root: 96 GiB, 103079215104 bytes, 201326592 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/pve-vm--103--disk--0: 10 GiB, 10737418240 bytes, 20971520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 65536 bytes


Disk /dev/mapper/pve-vm--101--disk--0: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 65536 bytes


Disk /dev/mapper/pve-vm--100--disk--0: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 65536 bytes


Disk /dev/mapper/pve-vm--104--disk--0: 28 GiB, 30064771072 bytes, 58720256 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 65536 bytes


Disk /dev/mapper/sdadisk: 238.5 GiB, 256043737088 bytes, 500085424 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

config {
checks=1
abort_on_errors=0
profile_dir="/etc/lvm/profile"
}
local {
}
dmeventd {
mirror_library="libdevmapper-event-lvm2mirror.so"
snapshot_library="libdevmapper-event-lvm2snapshot.so"
thin_library="libdevmapper-event-lvm2thin.so"
}
activation {
checks=0
udev_sync=1
udev_rules=1
verify_udev_operations=0
retry_deactivation=1
missing_stripe_filler="error"
use_linear_target=1
reserved_stack=64
reserved_memory=8192
process_priority=-18
raid_region_size=2048
readahead="auto"
raid_fault_policy="warn"
mirror_image_fault_policy="remove"
mirror_log_fault_policy="allocate"
snapshot_autoextend_threshold=100
snapshot_autoextend_percent=20
thin_pool_autoextend_threshold=100
thin_pool_autoextend_percent=20
vdo_pool_autoextend_threshold=100
use_mlockall=0
monitoring=1
polling_interval=15
activation_mode="degraded"
}
global {
umask=63
test=0
units="r"
si_unit_consistency=1
suffix=1
activation=1
proc="/proc"
etc="/etc"
wait_for_locks=1
locking_dir="/run/lock/lvm"
prioritise_write_locks=1
abort_on_internal_errors=0
metadata_read_only=0
mirror_segtype_default="raid1"
raid10_segtype_default="raid10"
sparse_segtype_default="thin"
event_activation=1
use_lvmlockd=0
system_id_source="none"
use_lvmpolld=1
notify_dbus=1
}
shell {
history_size=100
}
backup {
backup=1
backup_dir="/etc/lvm/backup"
archive=1
archive_dir="/etc/lvm/archive"
retain_min=10
retain_days=30
}
log {
verbose=0
silent=0
syslog=1
overwrite=0
level=0
indent=1
command_names=0
prefix=" "
activation=0
debug_classes=["memory","devices","io","activation","allocation","metadata","cache","locking","lvmpolld","dbus"]
}
allocation {
maximise_cling=1
use_blkid_wiping=1
wipe_signatures_when_zeroing_new_lvs=1
mirror_logs_require_separate_pvs=0
cache_pool_metadata_require_separate_pvs=0
thin_pool_metadata_require_separate_pvs=0
}
devices {
dir="/dev"
scan="/dev"
obtain_device_list_from_udev=1
external_device_info_source="none"
global_filter=["r|/dev/zd.*|","r|/dev/mapper/pve-.*|","r|/dev/sdb*|","r|/dev/mapper/.*-(vm|base)--[0-9]+--disk--[0-9]+|"]
sysfs_scan=1
scan_lvs=1
multipath_component_detection=1
md_component_detection=1
fw_raid_component_detection=0
md_chunk_alignment=1
data_alignment_detection=1
data_alignment=0
data_alignment_offset_detection=1
ignore_suspended_devices=0
ignore_lvm_mirrors=1
require_restorefile_with_uuid=1
pv_min_size=2048
issue_discards=1
allow_changes_with_duplicate_pvs=0
}

lvm> lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
data pve twi-aotz-- <338.36g 9.10 0.89
root pve -wi-ao---- 96.00g
swap pve -wi-ao---- 8.00g
vm-100-disk-0 pve Vwi-aotz-- 8.00g data 67.88
vm-101-disk-0 pve Vwi-a-tz-- 8.00g data 11.75
vm-103-disk-0 pve Vwi-aotz-- 10.00g data 78.88
vm-104-disk-0 pve Vwi-aotz-- 28.00g data 59.07

du -sh /*
0 /bin
298M /boot
43M /dev
5.0M /etc
1.3M /home
0 /lib
0 /lib32
0 /lib64
0 /libx32
16K /lost+found
4.0K /media
309G /mnt
4.0K /opt
du: cannot access '/proc/8521/task/8521/fd/4': No such file or directory
du: cannot access '/proc/8521/task/8521/fdinfo/4': No such file or directory
du: cannot access '/proc/8521/fd/3': No such file or directory
du: cannot access '/proc/8521/fdinfo/3': No such file or directory
0 /proc
8.3M /root
11M /run
0 /sbin
4.0K /srv
0 /sys
32K /tmp
3.6G /usr
30G /var
 

Attachments

  • lvm.jpg
    lvm.jpg
    51.8 KB · Views: 70
Hi,
Moin,
In der Weboberfläche wird mir angezeigt das anscheinen das Verzeichnis /dev/nvme0n1p3 zu 97% ausgelastet wird. Ist das normal oder liegt ein Fehler vor in meiner Proxmox Installation? Bisher habe ich keine Probleme bemerkt.
das ist kein Verzeichnis, sondern eine Partition. Was hier zu sehen ist, ist, dass dieser Speicher der Volume Group pve zugewiesen ist. Den Verbrauch innerhalb der Volume Group siehst du bei der Ausgabe von lvs.
 
Deinem logical volume "data" sind 338GB zugewiesen. Das heißt nicht, dass das volume voll ist. Aber dass die volume gruppe zu 97% ausgelastet ist. Das kann natürlich trotzdem sein, dass in "data" kein großartiger Speicher verbraucht wird.

Was sagt denn mount ? Kann es sein, dass das data logical volume unter /mnt gemountet ist?
 
  • Like
Reactions: fiona
Das data LV ist ein sogenannter thin pool und ist dazu da, Blöcke und Metadaten für andere LVs zu speichern (und zwar für die vm-XYZ-disk-0 Volumen), kann also nicht selbst gemounted werden. Den Verbrauch innerhalb von data sieht man bei der Spalte Data%, hier sind sind momentan 9.10 Prozent belegt.
 
Danke für die Antworten. Ich war wohl etwas verwirrt mit der Anzeige in der Weboberfläche, die Darstellung könnte man dort vielleicht besser machen indem man die gesamte Größe der Volumen da Prozentual darstellt die im LVM sind?

sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=8082628k,nr_inodes=2020657,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=1621488k,mode=755)
/dev/mapper/pve-root on / type ext4 (rw,noatime,discard,errors=remount-ro)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=36,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=17516)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
mqueue on /dev/mqueue type mqueue (rw,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
/dev/nvme0n1p2 on /boot/efi type vfat (rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
/dev/sdb1 on /mnt/sdb1 type ext4 (rw,relatime,discard)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
configfs on /sys/kernel/config type configfs (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,relatime)
tracefs on /sys/kernel/debug/tracing type tracefs (rw,relatime)
/dev/mapper/sdacrypt on /mnt/sda1 type ext4 (rw,relatime)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=1621484k,mode=700)

Ich habe 2 Laufwerke da gemountet.
dev/sdb1 on /mnt/sdb1 type ext4 (rw,relatime,discard)
und
/dev/mapper/sdacrypt on /mnt/sda1 type ext4 (rw,relatime)
 
Danke für die Antworten. Ich war wohl etwas verwirrt mit der Anzeige in der Weboberfläche, die Darstellung könnte man dort vielleicht besser machen indem man die gesamte Größe der Volumen da Prozentual darstellt die im LVM sind?
Das ist leider nicht so einfach, da man wissen müsste was sich auf dem LV befindet und das könnte alles sein; ein LV kann ja wie eine neue Disk behandelt werden. Für Thin Pools allerdings gibt es das schon, einfach auf den LVM-Thin Tab darunter klicken.
 
Ich hake mich hier mal ein.
Vor ca. ner Woche wollte ich ca. 200 GB auf die NC schieben, das dauerte lange und ich ließ es über Nacht laufen.
Am nächsten Tag war NC nicht mehr aufrufbar und der Container hat sich verabschiedet.
Ein Backup vom Container ließ sich auch nicht einspielen.

Hab nun die Platte Formatiert und per clonzilla die Platte neu geklont.
Jetzt läuft wieder alles.

Bin von einer 240 GB platte auf eine 1 TB platte umgezogen und hatte dem NC Container fast alles an Speicher zugewiesen.
Ich vermute, dass kein Speicher mehr frei war für den LVM Speicher.

Momentan habe bei mir noch ca. 17 GB verfügbar.

Kann mir jemand sagen, wie ich den Speicher richtig einstellen muss, damit das nicht wieder passiert?

Bildschirmfoto vom 2024-02-08 17-50-26.png
 
Last edited:
bitte ausgabe von pvs, vgs und lvs

/dev/sda3 ist dein physical volume, pve deine volume group
du hast 93% deiner volume group an logical volumes zugewiesen

bitte ausgabe von cat /etc/pve/storage.cfg
 
  • Like
Reactions: jules1606
Code:
root@proxmox:~#  pvs
  PV         VG  Fmt  Attr PSize   PFree 
  /dev/sda3  pve lvm2 a--  223.07g <16.00g
root@proxmox:~# vgs
  VG  #PV #LV #SN Attr   VSize   VFree 
  pve   1   5   0 wz--n- 223.07g <16.00g
root@proxmox:~#  lvs
  LV            VG  Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  data          pve twi-aotz-- <131.11g             62.75  3.30                           
  root          pve -wi-ao----   65.93g                                                   
  swap          pve -wi-ao----   <7.36g                                                   
  vm-100-disk-0 pve Vwi-aotz--   80.00g data        74.22                                 
  vm-101-disk-1 pve Vwi-aotz--   28.00g data        81.74                                 
root@proxmox:~# cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content rootdir,images
root@proxmox:~#
 
Wie planst du deine Platten zu verwenden?
Auf Proxmox soll nur meine NC und Pi hole laufen, würde der NC gerne mehr Speicher zuweisen =).
Also Promox läuft jetzt von meiner WD Red SA500 1TB SATA SSD.
 
Last edited:
bei LVM hast due 3 Ebenen, die Physical Volumes, die Volume Groups und die logical volumes.

falls iiene sdb leer ist, kannst du eine partition anlegen (sdb1) (typ lvm).

1. Dann machst du diese zum physical volume:
pvcreate /dev/sdb1

2. Dieses fügst du der VolumeGroup pve hinzu:
vgextend pve /dev/sdb1

3. Jetzt hast du mehr Platz für deine logical Volumes:
pvs
 
  • Like
Reactions: jules1606
bei LVM hast due 3 Ebenen, die Physical Volumes, die Volume Groups und die logical volumes.
So ganz verstehe ich das noch nicht.
falls iiene sdb leer ist, kannst du eine partition anlegen (sdb1) (typ lvm).
Und wie sehe ich das ?=).

Ist das überhaupt der Fehler in meiner Konfiguration?
Also kann sich ein Container verabschieden, wenn der LVM Speicher voll läuft?

Edit:
Wollte eben mal ein Backup vom NC Container machen, da kam ein Error.
Proxmox warn mich auch davor, dass der Speicher voll läuft:

Code:
INFO: starting new backup job: vzdump 100 --compress zstd --storage local --remove 0 --node proxmox --notes-template '{{guestname}}' --mode snapshot
INFO: Starting Backup of VM 100 (lxc)
INFO: Backup started at 2024-02-08 19:07:59
INFO: status = running
INFO: CT Name: pNextCloud
INFO: including mount point rootfs ('/') in backup
INFO: backup mode: snapshot
INFO: ionice priority: 7
INFO: create storage snapshot 'vzdump'
  WARNING: You have not turned on protection against thin pools running out of space.
  WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
  Logical volume "snap_vm-100-disk-0_vzdump" created.
  WARNING: Sum of all thin volume sizes (188.00 GiB) exceeds the size of thin pool pve/data and the amount of free space in volume group (<16.00 GiB).
INFO: creating vzdump archive '/var/lib/vz/dump/vzdump-lxc-100-2024_02_08-19_07_59.tar.zst'
INFO: zstd: error 25 : Write error : No space left on device (cannot write compressed block)
INFO: cleanup temporary 'vzdump' snapshot
snapshot 'vzdump' was not (fully) removed - lvremove snapshot 'pve/snap_vm-100-disk-0_vzdump' error:   /etc/lvm/archive/.lvm_proxmox_261943_189050563: fclose failed: No space left on device
ERROR: Backup of VM 100 failed - command 'set -o pipefail && lxc-usernsexec -m u:0:100000:65536 -m g:0:100000:65536 -- tar cpf - --totals --one-file-system -p --sparse --numeric-owner --acls --xattrs '--xattrs-include=user.*' '--xattrs-include=security.capability' '--warning=no-file-ignored' '--warning=no-xattr-write' --one-file-system '--warning=no-file-ignored' '--directory=/var/lib/vz/dump/vzdump-lxc-100-2024_02_08-19_07_59.tmp' ./etc/vzdump/pct.conf ./etc/vzdump/pct.fw '--directory=/mnt/vzsnap0' --no-anchored '--exclude=lost+found' --anchored '--exclude=./tmp/?*' '--exclude=./var/tmp/?*' '--exclude=./var/run/?*.pid' ./ | zstd --rsyncable '--threads=1' >/var/lib/vz/dump/vzdump-lxc-100-2024_02_08-19_07_59.tar.dat' failed: exit code 25
INFO: Failed at 2024-02-08 19:14:39
INFO: Backup job finished with errors
TASK ERROR: job errors



:)




Edit:

bei LVM hast due 3 Ebenen, die Physical Volumes, die Volume Groups und die logical volumes.

falls iiene sdb leer ist, kannst du eine partition anlegen (sdb1) (typ lvm).

1. Dann machst du diese zum physical volume:
pvcreate /dev/sdb1

2. Dieses fügst du der VolumeGroup pve hinzu:
vgextend pve /dev/sdb1

3. Jetzt hast du mehr Platz für deine logical Volumes:
pvs

Code:
root@proxmox:~#  pvcreate /dev/sdb1
  No device found for /dev/sdb1.

Was mache ich falsch?

Die Platte ist da:
Bildschirmfoto vom 2024-02-08 21-22-36.png
 
Last edited:
bei LVM hast due 3 Ebenen, die Physical Volumes, die Volume Groups und die logical volumes.

falls iiene sdb leer ist, kannst du eine partition anlegen (sdb1) (typ lvm).
Eine leere Platte kann auch direkt als Physical Volume für LVM genutzt werden, ohne Partition.
1. Dann machst du diese zum physical volume:
pvcreate /dev/sdb1

2. Dieses fügst du der VolumeGroup pve hinzu:
vgextend pve /dev/sdb1
Kleine Warnung: wenn mehrere Disken für eine Volume Group verwendet werden, steigt natürlich auch das Ausfallrisiko!
 
Ich weiß, dass es am Anfang echt schwer ist, sich in ein so unbekanntes Thema wie Partitionierung und Storage einzulesen, aber wenn ich den Beitrag bei CB lese, merkt man, du musst dich da einmal reinarbeiten.
Wenn du das Grundprinzip einmal verstanden hast, sind dann plötzlich alle anderen sachen logisch.
 
Logisches Volume vergößern:

lvextend -L +10G /dev/vg00/lv01

Danach Filesystem auf LV vergrößern, ist abhängig vom eingesetzten FS:

z.B. für ext2,3,4

resize2fs /dev/vg00/lv01

für XFS:

xfs_growfs /dev/vg00/lv01


mit Proxmox Container (unabhängig von Storage und Filesystem):

Platz checken:

pct df CTID

und vergrößern

pct resize CTID rootfs +10G

bzw.

pct resize CTID mp0 +200M
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!