[SOLVED] kann keine qwoc2 über 1xTB erstellen

foxpalace

Renowned Member
Sep 9, 2016
101
6
83
www.linuxfox.de
Hi, ich will einfach nur eine qcow2 jenseits der 20 TB erstellen, aber irgendwann gibt es den Fehler siehe Screenshot. Wenn ich eine 10TB erstelle und die nach und nach vergrößere so, dass ich auf z. B. 30 TB komme, hört die VM trotzdem irgendwann auf zu arbeiten: close device failed: Input/output error
Das Storage - normales Raid5 - arbeitet trotzdem klaglos
Was ist hier falsch?
Grüße Michael
 

Attachments

  • Bildschirmfoto 2025-01-28 um 16.47.17.png
    Bildschirmfoto 2025-01-28 um 16.47.17.png
    43.8 KB · Views: 11
Hast du die Meldung mal gelesen? Das steht doch alles.
Die Datei ist zu groß und wenn du eine größere Datei möchtest, musst du die Clustersize deines Dateisystems vergrößern.
Ich frage mich nur, warum will man eine so große Datei haben? Wenn die VM tatsächlich über 20TB Daten speichern will, würde ich lieber Proxmox Nativ mit einem Blockdatastore wie ZFS, Ceph oder ähnlichem arbeiten.
 
  • Like
Reactions: Johannes S and UdoB
Ja, natürlich habe ich das gelesen, aber die Meldung stimmt einfach nicht, da das Storage 73TB hat und da passen alle mal 30 TB rein.
Desweiteren kann ich weder ZFS noch Ceph machen, weil das eine SingleMaschine mit Raid-Controller ist und wir wissen wohl alle das ZFS und Ceph HBA brauchen.
 
Ja, natürlich habe ich das gelesen, aber die Meldung stimmt einfach nicht, da das Storage 73TB hat und da passen alle mal 30 TB rein.
Dann hast du gelesen, aber nicht verstanden. Das Dateisystem kann auch 1PB sein, wenn du aber eine zu kleine Clustersize des Dateisystem wählst (wir wissen nicht einmal welches du nutzt) dann ist die Dateigröße natürlich schnell ausgeschöpft. Mit einer größeren Clustersize hast du bei kleinen Dateien mehr Overhead, kannst aber viel größere Dateien ablegen.
Desweiteren kann ich weder ZFS noch Ceph machen, weil das eine SingleMaschine mit Raid-Controller ist und wir wissen wohl alle das ZFS und Ceph HBA brauchen.
Für Ceph brauchst du einen Cluster mit mehreren Nodes, aber ZFS braucht nicht zwingend einen HBA, es ist nur empfohlen.
Du kannst natürlich auch dein Raid vom Hardware Raid Controller mit ZFS benutzen, dann aber IMMER nur im Mode Single und niemals mehrere Raid Disks in einen Pool aufnehmen. Du verlierst natürlich auch Features wie Self Healing, aber das ist dann halt so.

Entweder du baust auf einen ZFS Pool um und sparst dir das limitierende Dateisystem oder du nutzt ganz einfach LVM, da hast du auch keine Dateisystem-Limitierungen.
 
  • Like
Reactions: Johannes S
ok - habe jetzt mal geguckt, was ext4 so kann - 16TB Dateigröße ... wäre nie auf die Idee aus so ein kleines Limit gekommen.
ZFS auf RAID ist bah - klar kannst du das machen, dann werde ich wohl LVM machen, obwohl ich LVM nicht mag - nicht kommentieren, bitte - es ist einfach meine persönliche Einstellung :)
Aber danke - deine Antwort hat mich zumindestens nach der max Dateigröße von ext4 googlen lassen :)