SSD mit Proxmox verstorben, wie am besten Backup einspielen?

Irgendwie findet Proxmox die Platten nicht. Ich hatte vorher noch die 6.4 und jetzt die 7.2 genommen, kann es daran liegen?
 
Hattest du vielleicht einen Stromausfall? Ein Stormausfall kann dir ja die Daten aller eingehängen Disks korrumpieren. Vielleicht hat dir das dann neben der Systemdisk auch die ZFS Disks zerschossen. Gerade wenn du keine Enterprise SSDs mit Powerloss Protection nutzt.
 
Von einem Stromausfall wüsste ich nichts, und die Daten sind ja auf HDD. Und die neue SSD die noch zugefügt habe ist ja auch nicht sichtbar bzw. taucht unter storage nicht auf
 
Von einem Stromausfall wüsste ich nichts, und die Daten sind ja auf HDD.
HDDs verlieren auch alles an Daten was noch in dessen flüchtigem RAM cache war und auf die HDD hätte geschrieben werden sollen, sofern die nicht an einem Raid-Controller mit BBU hängen.
Und die neue SSD die noch zugefügt habe ist ja auch nicht sichtbar bzw. taucht unter storage nicht auf
Dann ist dein SATA Controller vielleicht defekt wenn keine SSDs/HDDs mehr erkannt werden? Oder hast du was im BIOS gemacht und den SATA Controller vielleicht ausversehen von AHCI auf RAID umgestellt oder so?
 
Last edited:
Im Bio war ich nicht, sehr seltsam das ganze, ich versuche es jetzt mal mit der 6.4. Und auf der Konsole weden die Platten ja auch korrekt angezeigt
 
OK die zusätzliche SSD konnte ich jetzt erstellen, habe die Partition darauf gelöscht. Das funktioniert. Nur mein Pool wird nicht gefunden. Wenn ich den nun löschen würde und unter gleichem Namen neu erstelle, würden dann die Container diesen finden? Also da sind die Daten von einigen Containern abgelegt wie zb. die Daten von Nextcloud
 
... die Platten habe ich als Raid 0 und ZFS formatiert in Proxmox eingebunden
Keine Ahnung, ob es relevant ist: Ich meine mal gelesen zu haben, dass ZFS den direkten Zugriff auf die Disks haben möchte und man daher besser kein RAID drunter packen sollte. Raid wird dann über das ZFS realisiert, wenn Du mehrere Disks zu einem Pool zusammenschließt.
 
... Nur mein Pool wird nicht gefunden. Wenn ich den nun löschen würde und unter gleichem Namen neu erstelle, würden dann die Container diesen finden? Also da sind die Daten von einigen Containern abgelegt wie zb. die Daten von Nextcloud
Wenn Du einen Pool auf einer Disk neu erstellst, dann sind die Daten auf der Disk weg.
Wenn Du eine neue Disk nimmst und dort einen Pool gleichen Namens anlegst, könnte (!) es sein, dass der Pool einfach verwendet werden kann. Falls nicht eine UID der Disk irgendwo in den Containern/VMs verankert ist.

Wenn Du Sorge um die Daten in Deinem Pool hast und da ran willst, kannst Du Dir auch ein Debain aufsetzen, zfs installieren und deinen alten Pool dort einbinden. Dann kommst Du an alle Daten. Wenn man diesen Pool dann wieder an alter Stelle importieren will, kann es eine Fehlermeldung/Warnung geben, dass der Pool wo anders eingebunden war. Das lässt sich dann aber mittels der Option -f beim Import ignorieren.

... ich bin da aber auch nur der Hühneräugige unter den Blinden ... ;) Vielleicht hilft es Dir ja irgendwie.
 
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 3.6T 0 disk ├─sda1 8:1 0 3.6T 0 part └─sda9 8:9 0 8M 0 part sdb 8:16 0 3.6T 0 disk ├─sdb1 8:17 0 3.6T 0 part └─sdb9 8:25 0 8M 0 part sdc 8:32 0 1.8T 0 disk ├─sdc1 8:33 0 1.8T 0 part └─sdc9 8:41 0 8M 0 part sdd 8:48 1 111.8G 0 disk ├─sdd1 8:49 1 1007K 0 part ├─sdd2 8:50 1 512M 0 part └─sdd3 8:51 1 111.3G 0 part ├─pve-swap 253:0 0 8G 0 lvm [SWAP] ├─pve-root 253:1 0 27.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │ └─pve-data 253:4 0 59.7G 0 lvm └─pve-data_tdata 253:3 0 59.7G 0 lvm └─pve-data 253:4 0 59.7G 0 lvm
und

Disk /dev/mapper/pve-root: 27.75 GiB, 29796335616 bytes, 58195968 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes
 
Komisch das dir fdisk -l nichts zur Partitionierung der ganzen Disks sagt. Laut lsblk sehen sda, sdb und sdc jedenfalls nach typischen ZFS Disks aus.
 
Komisch das dir fdisk -l nichts zur Partitionierung der ganzen Disks sagt. Laut lsblk sehen sda, sdb und sdc jedenfalls nach typischen ZFS Disks aus.
Mein Fehler hatte das übersehen:
Disk /dev/sda: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors Disk model: WDC WD40EFRX-68N Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: A063DC45-7F93-6047-A2A2-388AD175705B Device Start End Sectors Size Type /dev/sda1 2048 7814019071 7814017024 3.6T Solaris /usr & Apple ZFS /dev/sda9 7814019072 7814035455 16384 8M Solaris reserved 1 Disk /dev/sdb: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors Disk model: WDC WD40EFRX-68N Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: gpt Disk identifier: 72C1392B-5ADC-654A-BB12-397E201BD663 Device Start End Sectors Size Type /dev/sdb1 2048 7814019071 7814017024 3.6T Solaris /usr & Apple ZFS /dev/sdb9 7814019072 7814035455 16384 8M Solaris reserved 1 Disk /dev/sdc: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors Disk model: SanDisk SDSSDH3 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 9935D0BF-068E-504D-B86F-0363B8124591 Device Start End Sectors Size Type /dev/sdc1 2048 3907012607 3907010560 1.8T Solaris /usr & Apple ZFS /dev/sdc9 3907012608 3907028991 16384 8M Solaris reserved 1 Disk /dev/sdd: 111.79 GiB, 120034123776 bytes, 234441648 sectors Disk model: CT120BX500SSD1 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 4D9EC74F-5B23-4A80-ACE3-A5D91D2D4B93 Device Start End Sectors Size Type /dev/sdd1 34 2047 2014 1007K BIOS boot /dev/sdd2 2048 1050623 1048576 512M EFI System /dev/sdd3 1050624 234441614 233390991 111.3G Linux LVM Disk /dev/mapper/pve-swap: 8 GiB, 8589934592 bytes, 16777216 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk /dev/mapper/pve-root: 27.75 GiB, 29796335616 bytes, 58195968 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes
 
Deine Platten sind jedenfalls da und mit ZFS Partitionen, dann sollte einem Import eigentlich auch nichts im Wege stehen.
 
Es wird aber nichts gefunden, ich bin echt ratlos. Zumal Proxmox bis zu crash super funktioniert hat.
 
Als, ich habe nun angefangen die Container auf die SSD Rückzusichern. Das funktioniert so weit auch, die Daten, die eigentlich auf dem ZFS Pool liegen werden, einfach mit auf die SSD Geschieben. Jetzt restored noch Nextcloud mit 359 GB. Hoffen wir, dass auch das gut rüberkommt.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!