Hm! Ich sehe ihn schon noch:
root@pve:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
hdd_pool1 1.56T 205G 26K /hdd_pool1
hdd_pool1/subvol-100-disk-2 1.54T 205G 1.54T /hdd_pool1/subvol-100-disk-2
...
aber darin ist nichts mehr...
Verdammt.. Hab eine VM gelöscht und ich bin mir sicher, das ich kein Häckchen zum löschen der Platte gesetzt habe. Dennoch ist der ZFS mountpunkt nun leer :(
Und natürlich wurde kein Snapshot angelegt. Sehr ärgerlich...
Die Daten sind höchste Wahrscheinlich alle noch in einem aktuellen Backup...
I have the same problem. I try to clone a VM and get the same error:
TASK ERROR: clone failed: zfs error: cannot create 'hdd_pool1/subvol-101-disk-0': use 'none' to disable quota/refquota
All quota is also set to "none" here.
Any idea?
So, alles kopiert und neu gestartet. Sieht gut aus, einige VMs/Cointainer laufen so wie immer... Doch einer nicht:
TASK ERROR: zfs error: cannot open 'hdd_pool1/subvol-107-disk-2': dataset does not exist
Das ist doch merkwürdig, oder?
Auf dem neuen SSD mirror ist das auch nicht drauf.
Hab...
Im laufenden Betrieb weigert sich "zfs send" auf die gemountete Partition zu zu greifen.
Hab im grub menü die rescue Einträge aktiviert und versuche es im rescue modus.
EDIT2:
So scheint es zu funktionieren:
root@pve:~# zpool import hdd_pool1
root@pve:~# zpool import ssd
root@pve:~# zfs...
Also ich hab mir jetzt zwei 2TB SSDs angeschafft, will darauf ein RAID1 machen und das ganze dann ohne dedup...
Wie sollte ich das RAID machen? Mit mdadm nicht, oder?
Okay... Geht nur über Pool neu erstellen?
EDIT: offenbar nicht: https://mschwaig.github.io/2017/01/05/disabling-zfs-deduplication-while-adding-a-mirror-to-a-zfs-pool
Hab gerade https://www.admin-magazine.com/HPC/Articles/Tuning-ZFS-for-Speed-on-Linux gefunden... Da ist beschrieben das man eine /etc/modprobe.d/zfs.conf selbst anlegen kann um damit die ARC größe per zfs_arc_max zu beeinflussen. Erscheint mit aber wenig hilfreich.
Da ist allerdings auf Seite 2...
Das stimmt. es gibt aber keine /etc/modprobe.d/zfs.conf:
root@pve:~# ls -la /etc/modprobe.d/
insgesamt 14
drwxr-xr-x 2 root root 3 Dez 17 09:33 .
drwxr-xr-x 109 root root 213 Dez 17 09:33 ..
-rw-r--r-- 1 root root 171 Apr 26 2016 pve-blacklist.conf
Allerdings scheint mir der ARC eh...
Hab gerade https://pbs.proxmox.com/docs/sysadmin.html#add-cache-and-log-to-an-existing-pool gefunden:
Ich gehe mal davon aus, das mit "physical memory" das RAM gemeint ist oder?
Mir fällt gerade ein: Sollte ich die 3TB HDD mit einer SSD tauschen, wird das auch nur eine Consumer SSD sein. Von...
Hm... Ich sag mal so, der Wechsel von 16GB auf 32GB hat nicht besondert viel gebracht.
Das Mainboard vom ProLiant ML10 v2 hat nur 4 RAM sockel, die mit 4x8GB DDR3 ECC Riegel gefüllt sind. Größere "unregistred" Module finde ich nicht und sind vermutlich recht teuer... Also mehr RAM geht nicht so...
Ich hab ein kleinen proxmox server im lokalen Netz laufen... Ist ein 8 Kern Xeon und einer 128GB SSD für das System und einer 3TB HDD für Daten.
Ich hab immer relative Hohe Load Werte, offenbar vorwiegend wegen ZFS IO. Die IO delay Anzeige schlägt auch immer ganz gut aus...
Erst dachte ich...
Bin dabei eine VM einzurichten.
Frage: Kann ich den Mount-Point von dem Container in die VM bekommen? Also in diesem Fall hdd_storage1:subvol-100-disk-2,mp=/media/servershare,size=10000G
Ansonsten müßte ich ja alle Daten umherkopieren, was doof ist.
Wenn keine Daten kopiert werden, liegt der load bei <0.5 und IO delay bei ~2% ... Also nix los
root@pve:~# qm config 100
Configuration file 'nodes/pve/qemu-server/100.conf' does not exist
Der ist IMHO keine VM sondern ein LXC Container... Gibt es da einen ensprechenden Befehl zum config...
Ich hab Proxmox 6.2 laufen. Darin u.a. Ubuntu 20.04 welches einen mountpoint als NFS freigibt. Der Zugriff darauf ist sehr langsam.
Wenn ich ein paar GB Dateien darauf schiebe dreht die CPU des Containers und des PVE-Servers quasi däumchen. Die Daten tröpfeln trotz GB-Netz bei 4-5MB/s.
Einzig...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.