Meine /etc/apt/sources.list schaut so aus:
deb http://ftp.debian.org/debian bullseye main contrib
deb http://ftp.debian.org/debian bullseye-updates main contrib
deb http://security.debian.org/debian-security bullseye-security main contrib
deb http://download.proxmox.com/debian/pve bullseye...
Ich bin ein wenig Ratlos. Nach einem reboot (Proxmox 7.4) ist z.B. /etc/pve leer. o_O Hab keine Idee, wie das passieren kann.
Glücklicherweise hab ich genau das Verzeichnis mit in einem Backup... Aber ich hab https://forum.proxmox.com/threads/error-after-changing-node-name.45702/#post-217310...
Also ich gehe nun so vor: Ich hab einen neuen PVE server eingerichtet und verschlüsselung mit zfs create -o encryption=on -o keyformat=passphrase tank/vmdata gemacht.
Hab mir kurz die dropbear Lösung angesehen. Da ich eine unverschlüsselte Systemplatte nutzte, sehe ich keinen Nachteil darin...
Ja, über einen PBS könnte ich auch gehen... Aber das ist leider sehr, sehr langsam. Das sind mehr als 10TB zu verschieben.
EDIT: Quatsch, kein 10TB, sondern ~1,9TB... :)
Hm! Ich hab jetzt in einem zweiten Server das RAID10 aufgebaut. Dann beide zu einem PVE Cluster "verbunden" und rätsel die ganze Zeit erfolglos, wie ich eine LXC instance von einem PVE node zum anderen bekomme...
Jetzt...
Hm. Ich kann das ohne eine extra SSD für das System wohl vergessen, denn laut https://community.hpe.com/t5/proliant-servers-ml-dl-sl/uefi-support-in-ml10-v2/td-p/6811694 hat der HP ProLiant ML10 v2 kein UEFI boot.
Hm. Das hört sich gut an. Lese ich auch gerade in https://forum.proxmox.com/threads/encrypting-proxmox-ve-best-methods.88191/#post-387731 ... Hm...
@Dunuin Die URL zur README in deinem Post stimmt nicht mehr. Könntest du mit...
Ja, aber dann kann der Rechner nicht mehr bis zur SSD Shell hochfahren, in der ich dann das Passwort der Verschlüsselung manuell eingebe, einfach beim mounten...
Ist auch nicht das Gelbe vom Ei: Weil nach jedem Booten muß ich daran denken und muß dann die VMs manuell starten, weil dann erst die...
System auf eigene SSD hab ich auch, weil die Daten SSDs verschlüsselt sind, mit: zfs create -o encryption=on -o keyformat=passphrase tank/vmdata
Das würde auch auf einem RAID gehen, macht aber alles kompliziertet, oder?
Hm... Ich muß ein wenig Jonglieren... Denn ich hab nur 6xSATA Anschlüsse, alles zusammen sind es allerdings 7 Platten:
1x System
2x 1TB alten SSDs
4x 2TB neue SSDs
Es ist ein "alter" HP ProLiant ML10 v2 Server... Also wie genau vorgehen?!?
Erstmal nur zwei 2TB dazu bauen
Neuen RAID1...
Das ist eine sehr gute Idee...
Also ich hab noch zwei 2TB SSDs bestellt. Dann werde ich ein normales RAID10 aufbauen, wenn sie da sind und dann mal mit dem Umziehen der VMs/LXCs probieren...
Hm :(
Also wäre es am besten ich kaufe noch eine 2TB um 3x2TB zu haben. Mache dann aus den drei ein RAIDZ-1 und nutzte dann zfs send ? Wobei das dann nicht online geht, oder?
Oder geht das über einen anderen weg?
Ich dache an quasi sowas: (1TB+1TB) + 2TB + 2TB ... Aber das geht so offenbar nicht?
Oh, echt nicht. Das war mir nicht klar :( Könnte das der Grund für https://forum.proxmox.com/threads/backup-failed-input-output-error-os-error-5.119328/ sein?!?
Ich schau mir gerade die Liste von https://pve.proxmox.com/wiki/ZFS_on_Linux#_installation_as_root_file_system an...
Könnte ich...
Aktuell hab ich 2x 1TB SSDs Datenplatten mit ZFS in meinem Proxmox System. Die sind voll und will ich durch 2x 2TB SSDs ersetzten.
Ist kein RAID und soll auch keins werden, sondern ein einfaches JBOD ;) (Aktuelles Backup ist per pbs angelegt)
Auf dem aktuellen zpool ist auch noch das...
Hm. Scrub done, but nothing repaired:
root@pve:~# zpool status -v
pool: tank
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire...
I try to run a backup of a stopped LXC container. It ended very fast with:
...
INFO: catalog upload error - channel closed
INFO: Error: error at "media/servershare/Backups/000-Software/PyCharmCE2019.3/.PyCharmCE2019.3/config/plugins/Docker/lib/rt/jersey-hk2-2.27.jar": Input/output error (os...
Huch, da ist ja alles wieder, nachdem ich einfach folgendes gemacht hab:
zfs mount hdd_pool1/subvol-100-disk-2
Denn mir ist aufgefallen, das es bei der Ausgabe von "mount" gefehlt hat...
@Dunuin Ist wohl kein Snapshot da:
root@pve:/# zfs list -r -t snapshot -o name,creation...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.