Search results

  1. J

    Platten durch größere ersetzten...

    Hm... Ich muß ein wenig Jonglieren... Denn ich hab nur 6xSATA Anschlüsse, alles zusammen sind es allerdings 7 Platten: 1x System 2x 1TB alten SSDs 4x 2TB neue SSDs Es ist ein "alter" HP ProLiant ML10 v2 Server... Also wie genau vorgehen?!? Erstmal nur zwei 2TB dazu bauen Neuen RAID1...
  2. J

    Platten durch größere ersetzten...

    Das ist eine sehr gute Idee... Also ich hab noch zwei 2TB SSDs bestellt. Dann werde ich ein normales RAID10 aufbauen, wenn sie da sind und dann mal mit dem Umziehen der VMs/LXCs probieren...
  3. J

    Platten durch größere ersetzten...

    Hm :( Also wäre es am besten ich kaufe noch eine 2TB um 3x2TB zu haben. Mache dann aus den drei ein RAIDZ-1 und nutzte dann zfs send ? Wobei das dann nicht online geht, oder? Oder geht das über einen anderen weg? Ich dache an quasi sowas: (1TB+1TB) + 2TB + 2TB ... Aber das geht so offenbar nicht?
  4. J

    Platten durch größere ersetzten...

    Oh, echt nicht. Das war mir nicht klar :( Könnte das der Grund für https://forum.proxmox.com/threads/backup-failed-input-output-error-os-error-5.119328/ sein?!? Ich schau mir gerade die Liste von https://pve.proxmox.com/wiki/ZFS_on_Linux#_installation_as_root_file_system an... Könnte ich...
  5. J

    Platten durch größere ersetzten...

    Aktuell hab ich 2x 1TB SSDs Datenplatten mit ZFS in meinem Proxmox System. Die sind voll und will ich durch 2x 2TB SSDs ersetzten. Ist kein RAID und soll auch keins werden, sondern ein einfaches JBOD ;) (Aktuelles Backup ist per pbs angelegt) Auf dem aktuellen zpool ist auch noch das...
  6. J

    Backup failed: "Input/output error (os error 5)"

    Hm. Scrub done, but nothing repaired: root@pve:~# zpool status -v pool: tank state: ONLINE status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire...
  7. J

    Backup failed: "Input/output error (os error 5)"

    I try to run a backup of a stopped LXC container. It ended very fast with: ... INFO: catalog upload error - channel closed INFO: Error: error at "media/servershare/Backups/000-Software/PyCharmCE2019.3/.PyCharmCE2019.3/config/plugins/Docker/lib/rt/jersey-hk2-2.27.jar": Input/output error (os...
  8. J

    VM gelöscht -> ZFS Partition weg :(

    Uh... Ich sehe gerade ich hab noch PVE 6.4...
  9. J

    VM gelöscht -> ZFS Partition weg :(

    Huch, da ist ja alles wieder, nachdem ich einfach folgendes gemacht hab: zfs mount hdd_pool1/subvol-100-disk-2 Denn mir ist aufgefallen, das es bei der Ausgabe von "mount" gefehlt hat... @Dunuin Ist wohl kein Snapshot da: root@pve:/# zfs list -r -t snapshot -o name,creation...
  10. J

    VM gelöscht -> ZFS Partition weg :(

    Hm! Ich sehe ihn schon noch: root@pve:~# zfs list NAME USED AVAIL REFER MOUNTPOINT hdd_pool1 1.56T 205G 26K /hdd_pool1 hdd_pool1/subvol-100-disk-2 1.54T 205G 1.54T /hdd_pool1/subvol-100-disk-2 ... aber darin ist nichts mehr...
  11. J

    VM gelöscht -> ZFS Partition weg :(

    Verdammt.. Hab eine VM gelöscht und ich bin mir sicher, das ich kein Häckchen zum löschen der Platte gesetzt habe. Dennoch ist der ZFS mountpunkt nun leer :( Und natürlich wurde kein Snapshot angelegt. Sehr ärgerlich... Die Daten sind höchste Wahrscheinlich alle noch in einem aktuellen Backup...
  12. J

    Restore Proxmox 4 rootfs container to Proxmox 5 ZFS

    I have the same problem. I try to clone a VM and get the same error: TASK ERROR: clone failed: zfs error: cannot create 'hdd_pool1/subvol-101-disk-0': use 'none' to disable quota/refquota All quota is also set to "none" here. Any idea?
  13. J

    ZFS cache nachträglich einrichten...

    Ah! cannot receive new filesystem stream: out of space Deswegen fehlt es. Verdammt.
  14. J

    ZFS cache nachträglich einrichten...

    So, alles kopiert und neu gestartet. Sieht gut aus, einige VMs/Cointainer laufen so wie immer... Doch einer nicht: TASK ERROR: zfs error: cannot open 'hdd_pool1/subvol-107-disk-2': dataset does not exist Das ist doch merkwürdig, oder? Auf dem neuen SSD mirror ist das auch nicht drauf. Hab...
  15. J

    ZFS cache nachträglich einrichten...

    Im laufenden Betrieb weigert sich "zfs send" auf die gemountete Partition zu zu greifen. Hab im grub menü die rescue Einträge aktiviert und versuche es im rescue modus. EDIT2: So scheint es zu funktionieren: root@pve:~# zpool import hdd_pool1 root@pve:~# zpool import ssd root@pve:~# zfs...
  16. J

    viele ACPI Fehler

    Ich kann ganz normal booten. Sehe die vielen Ausgaben wenn ich per ilo die "remote console" nutzte.
  17. J

    viele ACPI Fehler

    Auf der Konsole sehe ich sehr viele ACPI Fehler wie hier: Ist ein HP ProLiant ML10 v2 mit Proxmox 6.3-3 Jemand eine Idee woran das liegt?
  18. J

    ZFS cache nachträglich einrichten...

    Hab mal einfach zpool create ssd mirror /dev/sdd /dev/sdc gemacht und zack er ist da... root@pve:~# zpool list NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT hdd_pool1 2,72T 1,62T 1,09T - - 45% 59% 1.14x ONLINE - rpool...
  19. J

    ZFS cache nachträglich einrichten...

    Ja, sowas hab ich mir schon fast gedacht... Wo finde ich nähere Informationen zur Vorgehensweise?
  20. J

    ZFS cache nachträglich einrichten...

    Also ich hab mir jetzt zwei 2TB SSDs angeschafft, will darauf ein RAID1 machen und das ganze dann ohne dedup... Wie sollte ich das RAID machen? Mit mdadm nicht, oder?