HDDs verlieren auch alles an Daten was noch in dessen flüchtigem RAM cache war und auf die HDD hätte geschrieben werden sollen, sofern die nicht an einem Raid-Controller mit BBU hängen.Von einem Stromausfall wüsste ich nichts, und die Daten sind ja auf HDD.
Dann ist dein SATA Controller vielleicht defekt wenn keine SSDs/HDDs mehr erkannt werden? Oder hast du was im BIOS gemacht und den SATA Controller vielleicht ausversehen von AHCI auf RAID umgestellt oder so?Und die neue SSD die noch zugefügt habe ist ja auch nicht sichtbar bzw. taucht unter storage nicht auf
Keine Ahnung, ob es relevant ist: Ich meine mal gelesen zu haben, dass ZFS den direkten Zugriff auf die Disks haben möchte und man daher besser kein RAID drunter packen sollte. Raid wird dann über das ZFS realisiert, wenn Du mehrere Disks zu einem Pool zusammenschließt.... die Platten habe ich als Raid 0 und ZFS formatiert in Proxmox eingebunden
Wenn Du einen Pool auf einer Disk neu erstellst, dann sind die Daten auf der Disk weg.... Nur mein Pool wird nicht gefunden. Wenn ich den nun löschen würde und unter gleichem Namen neu erstelle, würden dann die Container diesen finden? Also da sind die Daten von einigen Containern abgelegt wie zb. die Daten von Nextcloud
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 3.6T 0 disk
├─sda1 8:1 0 3.6T 0 part
└─sda9 8:9 0 8M 0 part
sdb 8:16 0 3.6T 0 disk
├─sdb1 8:17 0 3.6T 0 part
└─sdb9 8:25 0 8M 0 part
sdc 8:32 0 1.8T 0 disk
├─sdc1 8:33 0 1.8T 0 part
└─sdc9 8:41 0 8M 0 part
sdd 8:48 1 111.8G 0 disk
├─sdd1 8:49 1 1007K 0 part
├─sdd2 8:50 1 512M 0 part
└─sdd3 8:51 1 111.3G 0 part
├─pve-swap 253:0 0 8G 0 lvm [SWAP]
├─pve-root 253:1 0 27.8G 0 lvm /
├─pve-data_tmeta 253:2 0 1G 0 lvm
│ └─pve-data 253:4 0 59.7G 0 lvm
└─pve-data_tdata 253:3 0 59.7G 0 lvm
└─pve-data 253:4 0 59.7G 0 lvm
Disk /dev/mapper/pve-root: 27.75 GiB, 29796335616 bytes, 58195968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Mein Fehler hatte das übersehen:Komisch das dirfdisk -l
nichts zur Partitionierung der ganzen Disks sagt. Lautlsblk
sehen sda, sdb und sdc jedenfalls nach typischen ZFS Disks aus.
Disk /dev/sda: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: WDC WD40EFRX-68N
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: A063DC45-7F93-6047-A2A2-388AD175705B
Device Start End Sectors Size Type
/dev/sda1 2048 7814019071 7814017024 3.6T Solaris /usr & Apple ZFS
/dev/sda9 7814019072 7814035455 16384 8M Solaris reserved 1
Disk /dev/sdb: 3.64 TiB, 4000787030016 bytes, 7814037168 sectors
Disk model: WDC WD40EFRX-68N
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 72C1392B-5ADC-654A-BB12-397E201BD663
Device Start End Sectors Size Type
/dev/sdb1 2048 7814019071 7814017024 3.6T Solaris /usr & Apple ZFS
/dev/sdb9 7814019072 7814035455 16384 8M Solaris reserved 1
Disk /dev/sdc: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
Disk model: SanDisk SDSSDH3
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 9935D0BF-068E-504D-B86F-0363B8124591
Device Start End Sectors Size Type
/dev/sdc1 2048 3907012607 3907010560 1.8T Solaris /usr & Apple ZFS
/dev/sdc9 3907012608 3907028991 16384 8M Solaris reserved 1
Disk /dev/sdd: 111.79 GiB, 120034123776 bytes, 234441648 sectors
Disk model: CT120BX500SSD1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 4D9EC74F-5B23-4A80-ACE3-A5D91D2D4B93
Device Start End Sectors Size Type
/dev/sdd1 34 2047 2014 1007K BIOS boot
/dev/sdd2 2048 1050623 1048576 512M EFI System
/dev/sdd3 1050624 234441614 233390991 111.3G Linux LVM
Disk /dev/mapper/pve-swap: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/pve-root: 27.75 GiB, 29796335616 bytes, 58195968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes