Neu Installation Proxmox VE 8.0 einspielen alter Vzdumps von externer Festplatte

tosy

New Member
Sep 18, 2023
17
0
1
Hallo @ all
Ich betreibe seit ca. 2 Jahren einen Homeserver mit Proxmox VE auf einen asus p41. Intern eine NVMe und eine HDD. Extern eine SDD von WD und eine NVMe.
Lief ohne Störung bis jetzt ohne zutun. Iobroker, Nextcloud und pihole machten auch keine probleme.
Nach mehrmaligen Strom ausfall, startete Proxmox nicht wieder. Reperatur versuche scheiterten. NVMe intern habe ich ausgetauscht den dort wurde das System installiert. Meine kenntnisse was Linux betrifft sind geich 0. Habe damals alles mit Apfelcast video aufgesetzt. Lxc Container backups habe ich regelmäßig gemacht nur bekomm ich diese nicht ins neue System eingebunden. Daten von nextcloud und iobrocker sind auf den externen festplatten, die kann ich aber nicht auslesen da diese wohl verlüsselt sind bzw keine recht vorhanden. Habe mir auf einen alten Laptop ein Umbuntu istalliert um alle daten der HDDs und SDD irgentwie zu sichern aber das scheiterte. Gibt es eine Möglichkeit das ganze wieder herzustellen?
 
Hallo tosy,

Punkt 1: KEINE PANIK ;)


Du hast eine neue nvme mit einem (leeren) Proxmox laufen, richtig?

Hast du die externen Platten und die Platte mit den Backups angeschlossen?

Wenn ja, dann bitte einmal die Ausgabe von lsblk
 
Hallo ubu,

so sieht das aus:

root@pve:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 149.1G 0 disk
├─sda1 8:1 0 149G 0 part
└─sda9 8:9 0 8M 0 part
sdb 8:16 0 931.5G 0 disk
└─sdb1 8:17 0 931.5G 0 part
sdc 8:32 0 119.2G 0 disk
nvme0n1 259:0 0 238.5G 0 disk
├─nvme0n1p1 259:1 0 1007K 0 part
├─nvme0n1p2 259:2 0 1G 0 part /boot/efi
└─nvme0n1p3 259:3 0 237.5G 0 part
├─pve-swap 253:0 0 8G 0 lvm [SWAP]
├─pve-root 253:1 0 69.4G 0 lvm /
├─pve-data_tmeta 253:2 0 1.4G 0 lvm
│ └─pve-data 253:4 0 141.2G 0 lvm
└─pve-data_tdata 253:3 0 141.2G 0 lvm
└─pve-data 253:4 0 141.2G 0 lvm
 
sda sieht nach ZFS aus.
sdb würde ich mal ext4 als directory storage raten (da würde lsblk -f helfen)
sdc ist unpartitioniert (warum?).
nvme0n1 ist dein neues PVE mit LVM.

PS: Wenn du nicht deine Dateisysteme beim Stromausfall zerschießen willst solltest du über eine USV nachdenken, welche dann beim Stromausfall noch den Server für ein paar Minuten am Laufen hält und diesen automatisiert geregelt runterfährt.
 
Last edited:
Entschudige Dunuin ich habe keine Ahnung was du möchtest. Ich hatte das damals unter Apfelcast aufgesetzt und später über weboberfläche Containerbackups gemacht. ist ja bis dato super gelaufen.
 
lsblk -f :

root@pve:~# lsblk -f
NAME FSTYPE FSVER LABEL UUID FSAVAIL FSUSE% MOUNTPOINTS
sda
├─sda1
│ zfs_me 5000 WDHD 18145782678283228200
└─sda9

sdb
└─sdb1
ext4 1.0 6d9e8704-5941-4d7d-be8f-598201c27e1a
sdc ext4 1.0 b2794ac0-38a3-4acd-9956-5352c59731ba
nvme0n1

├─nvme0n1p1

├─nvme0n1p2
│ vfat FAT32 BD69-D6BA 1021.6M 0% /boot/efi
└─nvme0n1p3
LVM2_m LVM2 czRHj1-8rFV-9YMy-Xjao-KsPF-6BF3-uYxxJ1
├─pve-swap
│ swap 1 37ba0abd-3c7c-452d-93fc-2118ecb676e5 [SWAP]
├─pve-root
│ ext4 1.0 c9c2ce03-5f0c-4433-9e20-97cb08ac8f28 60.5G 5% /
├─pve-data_tmeta

│ └─pve-data

└─pve-data_tdata

└─pve-data
 
Entschudige Dunuin ich habe keine Ahnung was du möchtest. Ich hatte das damals unter Apfelcast aufgesetzt und später über weboberfläche Containerbackups gemacht. ist ja bis dato super gelaufen.
Die Linux-Grundkenntnisse solltest du dir dann aber wenigstens aneignen.
Du fährst quasi gerade ein Auto ohne Führerschein, ohne je beim TÜV gewesen zu sein und ohne je Wartungsarbeiten wie Bremsen/Reifenwechsel oder Ölkontrolle gemacht zu haben. Früher oder später muss man da einen Unfall bauen, wenn man nicj'ht wenigstens die Grundkenntnisse hat.

Hier kommst du z.B. ohne CLI und Linux-Kenntnisse nicht weiter.
Erstmal müsste man rausfinden, was du früher überhaupt für Dateisysteme und Storage benutzt hast.
Dann müsste man die mounten/importieren/aktivieren. Dann Storages in PVE dafür anlegen.

In Zukunft solltest du besser auch den "/etc" Ordner regelmäßig sichern wo die ganzen Konfigs enthalten sind (was auch wieder nicht über das webUI geht und du dich mit CLI/Linux beschäftigen musst).

Als erstes mal bitte lsblk -f, zpool import ausführen sowie fdisk -l
 
Last edited:
  • Like
Reactions: itNGO
Ja das war ja eher eine spielerei. Wie schon erwähnt ist ja gelaufen. Und jetzt ist doch eine abhänigkeit da.

root@pve:~# zpool import
no pools available to import
root@pve:~# fdisk -l
Disk /dev/sda: 149.05 GiB, 160041885696 bytes, 312581808 sectors
Disk model: TOSHIBA MK1652GS
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 4B564FAD-084F-D641-98C3-60517332CC15

Device Start End Sectors Size Type
/dev/sda1 2048 312563711 312561664 149G Solaris /usr & Apple ZFS
/dev/sda9 312563712 312580095 16384 8M Solaris reserved 1


Disk /dev/nvme0n1: 238.47 GiB, 256060514304 bytes, 500118192 sectors
Disk model: SPCC M.2 PCIe SSD
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AE6433C8-0978-4C00-B03E-1D5A5C13D493

Device Start End Sectors Size Type
/dev/nvme0n1p1 34 2047 2014 1007K BIOS boot
/dev/nvme0n1p2 2048 2099199 2097152 1G EFI System
/dev/nvme0n1p3 2099200 500118158 498018959 237.5G Linux LVM


Disk /dev/mapper/pve-swap: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/pve-root: 69.37 GiB, 74482450432 bytes, 145473536 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sdb: 931.48 GiB, 1000170586112 bytes, 1953458176 sectors
Disk model: Elements SE 2623
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 58F3E424-E02D-4235-8777-59980F26B49E

Device Start End Sectors Size Type
/dev/sdb1 2048 1953456127 1953454080 931.5G Linux filesystem


Disk /dev/sdc: 119.24 GiB, 128035676160 bytes, 250069680 sectors
Disk model:
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 33553920 bytes
 
total 143144
drwxr-xr-x 10 www-data www-data 4096 Oct 28 2022 appdata_occrrl4aiajs
drwxr-xr-x 6 www-data www-data 4096 Oct 23 2022 Carmen
drwxr-xr-x 2 www-data www-data 4096 Oct 16 2022 files_external
drwxr-xr-x 2 www-data www-data 4096 Oct 16 2022 __groupfolders
-rw-r--r-- 1 www-data www-data 0 Oct 16 2022 index.html
drwx------ 2 www-data www-data 16384 Oct 16 2022 lost+found
-rw-r----- 1 www-data www-data 146491028 Jan 7 2023 nextcloud.log
drwxr-xr-x 7 www-data www-data 4096 Nov 27 2022 Thorsten
drwxr-xr-x 4 www-data www-data 4096 Oct 17 2022 tmc
-rw-r--r-- 1 www-data www-data 30416 Dec 10 2022 updater.log
drwxr-xr-x 4 www-data www-data 4096 Nov 13 2022 updater-occrrl4aiajs
root@pve:~#
 
Disk /dev/sdc: 119.24 GiB, 128035676160 bytes, 250069680 sectors
Disk model:
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 33553920 bytes
Was ist denn das für eine Disk? 32MB I/O size habe ich bisher noch nicht gesehen.

Was sagt zpool status? Eventuell ist der Pool ja schon importiert.

sdc könntest du auch mal versuchen zu mounten:
Code:
mkdir /sdc
mount -t ext4 /dev/sdc /sdc
ls -l /sdc
 
Last edited:
root@pve:~# zpool status
pool: WDHD
state: ONLINE
config:

NAME STATE READ WRITE CKSUM
WDHD ONLINE 0 0 0
ata-TOSHIBA_MK1652GSX_X8RCFJ2TS ONLINE 0 0 0

errors: No known data errors

SSD extern müsste 128 GIB haben
 
Bitte sdc mounten:

Code:
mkdir /sdc
mount -t ext4 /dev/sdc /sdc
ls -l /sdc


und Ausgabe von
Code:
zfs list
 
Ok

total 32
drwxr-xr-x 2 root root 4096 Jun 17 19:50 dump
drwxr-xr-x 2 root root 4096 Jan 15 2023 images
drwx------ 2 root root 16384 Jan 15 2023 lost+found
drwxr-xr-x 2 root root 4096 Jan 15 2023 private
drwxr-xr-x 4 root root 4096 Jan 15 2023 template
root@pve:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
WDHD 384K 144G 96K /WDHD
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!