Fehlermeldung Proxmox mknodes' failed

Marceldrzal

Member
Sep 3, 2021
66
2
13
48
Germany
Hallo zusammen,

habe eine neue Festplatte installiert und wollte nun im NUC alles umziehen. Die VM 320 habe ich über Hardware Laufwerk erfolgreich umgezogen siehe Bild.

Nun erhalte ich im Log ein fehler. pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5

Hoffe ihr könnt mir Helfen.

Wollte auch den pve dann löschen und pve1 als knoten haben. Hier ist auch ein Localnetwork.


Beim Zurück verschieben habe ich auch einen Fehler:
1734463490664.png



1734441601365.png


1734441433356.png




ec 17 14:14:23 pve pveproxy[402964]: worker exit
Dec 17 14:14:23 pve pveproxy[1292]: worker 402964 finished
Dec 17 14:14:23 pve pveproxy[1292]: starting 1 worker(s)
Dec 17 14:14:23 pve pveproxy[1292]: worker 407600 started
Dec 17 14:14:26 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:27 pve pvedaemon[406379]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:27 pve pvedaemon[399527]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:28 pve pvedaemon[407449]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:37 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:46 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:56 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:58 pve pvedaemon[406379]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:59 pve pvedaemon[407449]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:59 pve pvedaemon[399527]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:15:06 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
 
Last edited:
Code:
root@pve:~# lsblk -f
NAME                                       FSTYPE      FSVER    LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
sda                                                                                                                        
├─sda1                                                                                                                    
├─sda2                                     vfat        FAT32          B7A8-74D0                               510.7M     0% /boot/efi
└─sda3                                     LVM2_member LVM2 001       rw3eZE-hGBk-ZKIv-OZEG-Qbwf-w7u1-JbA9bC              
  ├─pve-swap                               swap        1              7ac0420b-8069-4c12-97c8-24c673f5b377                  [SWAP]
  ├─pve-root                               ext4        1.0            ede5a7c2-2c7e-4a98-bba4-a844730d58af     60.1G    31% /
  ├─pve-data_tmeta                                                                                                        
  │ └─pve-data-tpool                                                                                                      
  │   ├─pve-data                                                                                                          
  │   ├─pve-vm--200--disk--0               ext4        1.0            65cff8de-8b1e-40d8-b153-fd3c22f34634                
  │   ├─pve-vm--248--disk--2                                                                                              
  │   ├─pve-vm--248--disk--4                                                                                              
  │   ├─pve-vm--246--disk--0                                                                                              
  │   ├─pve-vm--247--disk--0                                                                                              
  │   ├─pve-vm--300--disk--0                                                                                              
  │   ├─pve-vm--300--disk--1                                                                                              
  │   ├─pve-vm--300--state--ETSUpdate                                                                                      
  │   ├─pve-vm--300--state--UpdadeioBroker                                                                                
  │   ├─pve-vm--100--disk--0               ext4        1.0            90ff5c59-fec2-401b-81a1-275dd35f0c2a                
  │   ├─pve-vm--248--disk--0                                                                                              
  │   ├─pve-vm--248--disk--1                                                                                              
  │   ├─pve-vm--201--disk--1               ext4        1.0            26f36e18-c624-4d1c-9380-1cbb9acb5bd3                
  │   ├─pve-vm--240--disk--0               ext4        1.0            6d505487-1532-48c6-b102-4d144c16abbd                
  │   ├─pve-vm--220--disk--0               ext4        1.0            c1131012-0158-4146-9b2d-89a30706334d                
  │   ├─pve-vm--110--disk--0               ext4        1.0            7cdea002-9092-46a3-9022-502de3849a69                
  │   ├─pve-vm--332--disk--0               ext4        1.0            675bb08f-ed59-49d3-b08f-e85344bc6a57                
  │   ├─pve-vm--320--disk--0                                                                                              
  │   └─pve-vm--101--disk--0                                                                                              
  ├─pve-data_tdata                                                                                                        
  │ └─pve-data-tpool                                                                                                      
  │   ├─pve-data                                                                                                          
  │   ├─pve-vm--200--disk--0               ext4        1.0            65cff8de-8b1e-40d8-b153-fd3c22f34634                
  │   ├─pve-vm--248--disk--2                                                                                              
  │   ├─pve-vm--248--disk--4                                                                                              
  │   ├─pve-vm--246--disk--0                                                                                              
  │   ├─pve-vm--247--disk--0                                                                                              
  │   ├─pve-vm--300--disk--0                                                                                              
  │   ├─pve-vm--300--disk--1                                                                                              
  │   ├─pve-vm--300--state--ETSUpdate                                                                                      
  │   ├─pve-vm--300--state--UpdadeioBroker                                                                                
  │   ├─pve-vm--100--disk--0               ext4        1.0            90ff5c59-fec2-401b-81a1-275dd35f0c2a                
  │   ├─pve-vm--248--disk--0                                                                                              
  │   ├─pve-vm--248--disk--1                                                                                              
  │   ├─pve-vm--201--disk--1               ext4        1.0            26f36e18-c624-4d1c-9380-1cbb9acb5bd3                
  │   ├─pve-vm--240--disk--0               ext4        1.0            6d505487-1532-48c6-b102-4d144c16abbd                
  │   ├─pve-vm--220--disk--0               ext4        1.0            c1131012-0158-4146-9b2d-89a30706334d                
  │   ├─pve-vm--110--disk--0               ext4        1.0            7cdea002-9092-46a3-9022-502de3849a69                
  │   ├─pve-vm--332--disk--0               ext4        1.0            675bb08f-ed59-49d3-b08f-e85344bc6a57                
  │   ├─pve-vm--320--disk--0                                                                                              
  │   └─pve-vm--101--disk--0                                                                                              
  └─pve-data_meta0                                                                                                        
nvme0n1                                                                                                                    
└─pve1-vm--320--disk--0                                                                                                    
root@pve:~#


root@pve:~# journalctl -b
Dec 16 21:19:20 pve kernel: Linux version 6.8.12-5-pve (build@proxmox) (gcc (Debian 12.2.0-14) 12.2.0, GNU ld (GNU Binutils for Debian) 2.40) #1 SMP PREEMPT_>
Dec 16 21:19:20 pve kernel: Command line: BOOT_IMAGE=/boot/vmlinuz-6.8.12-5-pve root=/dev/mapper/pve-root ro quiet
Dec 16 21:19:20 pve kernel: KERNEL supported cpus:
Dec 16 21:19:20 pve kernel: Intel GenuineIntel
Dec 16 21:19:20 pve kernel: AMD AuthenticAMD
Dec 16 21:19:20 pve kernel: Hygon HygonGenuine
Dec 16 21:19:20 pve kernel: Centaur CentaurHauls
Dec 16 21:19:20 pve kernel: zhaoxin Shanghai
Dec 16 21:19:20 pve kernel: BIOS-provided physical RAM map:
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x0000000000000000-0x000000000009efff] usable
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000000009f000-0x00000000000fffff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x0000000000100000-0x000000002ceeefff] usable
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002ceef000-0x000000002eff2fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002eff3000-0x000000002f074fff] ACPI data
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002f075000-0x000000002f1cafff] ACPI NVS
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002f1cb000-0x000000002fba2fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002fba3000-0x000000002fc4dfff] type 20
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002fc4e000-0x000000002fc4efff] usable
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x000000002fc4f000-0x000000003cffffff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000e0000000-0x00000000efffffff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000fed00000-0x00000000fed03fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved
Dec 16 21:19:20 pve kernel: BIOS-e820: [mem 0x0000000100000000-0x00000008c0ffffff] usable
Dec 16 21:19:20 pve kernel: NX (Execute Disable) protection: active
Dec 16 21:19:20 pve kernel: APIC: Static calls initialized
Dec 16 21:19:20 pve kernel: efi: EFI v2.7 by American Megatrends
Dec 16 21:19:20 pve kernel: efi: ACPI=0x2f130000 ACPI 2.0=0x2f130014 TPMFinalLog=0x2f138000 SMBIOS=0x2f9df000 SMBIOS 3.0=0x2f9de000 MEMATTR=0x26655298 ESRT=0>
Dec 16 21:19:20 pve kernel: efi: Remove mem290: MMIO range=[0xe0000000-0xefffffff] (256MB) from e820 map
Dec 16 21:19:20 pve kernel: e820: remove [mem 0xe0000000-0xefffffff] reserved
Dec 16 21:19:20 pve kernel: efi: Not removing mem291: MMIO range=[0xfe000000-0xfe010fff] (68KB) from e820 map
Dec 16 21:19:20 pve kernel: efi: Not removing mem292: MMIO range=[0xfec00000-0xfec00fff] (4KB) from e820 map
Dec 16 21:19:20 pve kernel: efi: Not removing mem293: MMIO range=[0xfed00000-0xfed03fff] (16KB) from e820 map
Dec 16 21:19:20 pve kernel: efi: Not removing mem294: MMIO range=[0xfee00000-0xfee00fff] (4KB) from e820 map
Dec 16 21:19:20 pve kernel: efi: Remove mem295: MMIO range=[0xff000000-0xffffffff] (16MB) from e820 map
Dec 16 21:19:20 pve kernel: e820: remove [mem 0xff000000-0xffffffff] reserved
Dec 16 21:19:20 pve kernel: secureboot: Secure boot disabled
Dec 16 21:19:20 pve kernel: SMBIOS 3.3.0 present.
Dec 16 21:19:20 pve kernel: DMI: Intel(R) Client Systems NUC10i7FNH /NUC10i7FNB , BIOS FNCML357.0053.2021.0707.1420 07/07/2021
Dec 16 21:19:20 pve kernel: tsc: Detected 1600.000 MHz processor
Dec 16 21:19:20 pve kernel: tsc: Detected 1599.960 MHz TSC
lines 1-43
 

Attachments

  • 1734463673817.png
    1734463673817.png
    156.1 KB · Views: 1
Last edited:
Hallo zusammen,

habe eine neue Festplatte installiert und wollte nun im NUC alles umziehen. Die VM 320 habe ich über Hardware Laufwerk erfolgreich umgezogen siehe Bild.

Nun erhalte ich im Log ein fehler. pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5

Hoffe ihr könnt mir Helfen.

Wollte auch den pve dann löschen und pve1 als knoten haben. Hier ist auch ein Localnetwork.


Beim Zurück verschieben habe ich auch einen Fehler:
View attachment 79282



View attachment 79269


View attachment 79268




ec 17 14:14:23 pve pveproxy[402964]: worker exit
Dec 17 14:14:23 pve pveproxy[1292]: worker 402964 finished
Dec 17 14:14:23 pve pveproxy[1292]: starting 1 worker(s)
Dec 17 14:14:23 pve pveproxy[1292]: worker 407600 started
Dec 17 14:14:26 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:27 pve pvedaemon[406379]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:27 pve pvedaemon[399527]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:28 pve pvedaemon[407449]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:37 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:46 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:56 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:58 pve pvedaemon[406379]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:59 pve pvedaemon[407449]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:14:59 pve pvedaemon[399527]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 17 14:15:06 pve pvestatd[1270]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dein Datastore pve1 ist offline. Check erst einmal den datastore, warum der offline ist. Wenn der wieder da ist, funktioniert auch deine VM.
 
Scheinbar hast du ein Dateisystem ext4 erzeugt.
Wie hast du den Datastore eingebunden?
Guck mal unter: Datacenter > Storage
 
Code:
root@pve:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=32743528k,nr_inodes=8185882,mode=755,inode64)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=6555480k,mode=755,inode64)
/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,inode64)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k,inode64)
cgroup2 on /sys/fs/cgroup type cgroup2 (rw,nosuid,nodev,noexec,relatime)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=30,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=4961)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
ramfs on /run/credentials/systemd-sysusers.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
ramfs on /run/credentials/systemd-tmpfiles-setup-dev.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
/dev/nvme0n1p1 on /mnt/pve/sdb1 type ext4 (rw,relatime)
/dev/sda2 on /boot/efi type vfat (rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
ramfs on /run/credentials/systemd-sysctl.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
ramfs on /run/credentials/systemd-tmpfiles-setup.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,nosuid,nodev,noexec,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
//172.16.0.31/Backups1 on /mnt/pve/BackkupProxmox type cifs (rw,relatime,vers=3.1.1,cache=strict,username=Backup,domain=/Proxmox,uid=0,noforceuid,gid=0,noforcegid,addr=172.16.0.31,file_mode=0755,dir_mode=0755,soft,nounix,serverino,mapposix,rsize=4194304,wsize=4194304,bsize=1048576,retrans=1,echo_interval=60,actimeo=1,closetimeo=1)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=6555476k,nr_inodes=1638869,mode=700,inode64)
root@pve:~# ^C
root@pve:~# ^C
root@pve:~#
 
Du hast deine Platte SDB gar nicht gemountet. Vermutlich hast du die von Hand formatiert und gemopuntet, aber nicht in die fstab eingetragen.

Entweder man legt einen Datastore komplett über die GUI an und dann macht Proxmox alles für dich, oder du muss bei manuellen arbeiten auch selbst aufpassen was du tust.

Dann mounte mal /dev/sdb1 nach /mnt/pve/sdb1.
Und dann gleich in die /etc/fstab eintragen.

Danach sollte der Datastore wieder online sein und alles normal funktionieren.
 
ich denke da ich nicht so fit darin bin eher über die GUI
hast da ne keine Anweisung für mich wie ich das mache?
Dennkst dann ist die Fehlermeldung weg?
könnte auch erst alles löschen. auf der neueen M2.SSD ist noch nichts drauf also könnte ich alles machen.


danke dir


Code:
Dec 22 13:48:42 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:48:53 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:02 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:12 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:22 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:32 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:43 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:49:52 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
Dec 22 13:50:03 pve pvestatd[1251]: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
: command '/sbin/vgscan --ignorelockingfailure --mknodes' failed: exit code 5
 
Last edited:
oder ist es einfacher die Festplatte raus ziehen und die neue einstecken und Proxmx neu installieren?
habe eine Stick mit Proxmox. Was muss ich noch vor Installation beachten?
Noch läuft das alte System.(also die alte Festplatte.
Denke aber da ich schon was geändert habe an der Neuen Festplatte bekomme ich bei der Neuinstallation probleme oder wird dann alles gelöscht?
Backups habe ich auf der NAS sicher von den einzelnen Maschinen.



Dann das Backup wieder einzuspielen?
Sorry kenn mich hier noch nicht so aus.
Danke dir aber für deine Hilfe

kann die Festplatte auch so einfach nicht löschen

1734887746391.png



oder formatieren oder brauch ich das dann nicht?

1734887922945.png

1734887891452.png




hier konnte ich die pve1 löschen

1734888052297.png
 
Last edited:
Jetzt hast du schon mal den Dtatstore gelöscht.
Die NVMe mit dem ext4 hat ja nix mit der sdb zu tun.

Wenn die Disks leer sind, einfach über die GUI wipen und dann einen neuen Datastore anlegen.
Wenn du keine besonderen Ansprüche hast, baue einfach einen LVM Thin-Pool.
 
Ich habe über die NAS Backup gezogen. Kam auch alles auf der Synology an.

Leider herhalte ich aber eine Fehlermeldung am Ende.
Der Container 332 ist aber auch nicht mehr vorhanden? Was kann ich machen?
Die M.2SSD ist drin. Auf sie wollte ich dann alles installieren.

Also am besten gleich 2 Fliegen mit einer Klappe schlagen. Ich dachte mir ich ziehe die Festplatte am NUC raus uns lass dann mit einen Stick Proxmox auf die neue m.2ssd installieren und dann alles vom Backup Synology wieder aufspieleln.

ist das der richtige Weg. sorry bin neu hier

Code:
NFO: including mount point rootfs ('/') in backup
INFO: creating vzdump archive '/mnt/pve/synology-nas/dump/vzdump-lxc-332-2024_12_22-21_18_57.tar.zst'
INFO: Total bytes written: 1732904960 (1.7GiB, 89MiB/s)
INFO: archive file size: 625MB
INFO: adding notes to backup
INFO: prune older backups with retention: keep-last=10
INFO: pruned 0 backup(s)
INFO: Finished Backup of VM 332 (00:00:26)
INFO: Backup finished at 2024-12-22 21:19:23
INFO: Backup job finished with errors
TASK ERROR: job errors

auf der nvme ist soweit nichts drauf, hatte sie nur mit GPT Button bearbeitet, aber jetzt beim löschen kommt da auch ein Fehler. Ist das alles egal, da ich sowiso umziehe und ich alles im Backup habe?
Also was ich brauche ist ein OK von dir und dann ziehe ich die Festplatte ab und installiere Proxmox mit dem Stick auf die m2.ssd??
Später kann ich die Festplatte dann anderweitig im Proxmox verwenden, für ISO oder so. Vielleicht hast du da auch einen Tipp.

Danke das du mir so hilfst.


1734899801715.png



1734899633251.png



1734899060629.png
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!