Hallo,
ich habe hier einen IBM x3650 M3 Server mit 8 Platten übrig. Die Platten sind als JBOD-Modus im System. Mein Ziel ist es ein ZFS-Raid-Test-System zu bauen. Die Installation läuft so weit durch, die 8 Platten werden erkannt und ich wähle ZRAID2. Bei der GRUB-Installation dauert es dann...
Hallo,
ich versuche wie hier: https://forum.proxmox.com/threads/spice-timeout-cut-paste.144123/ beschrieben Spice-Session per API zu starten. Das gelingt mir aber nicht, da ich mutmasslich mit den Berechtigungen etwas falsch mache. Ich bin im Moment noch immer auf PVE 7.4-17...
Wo nimmt man den her? Ich kenne nur "virt-viewer"
Das einzige was ich gefunden habe was in die Richtung zeigt ist:
https://gitlab.com/pawlakm/pve-spice-connect
Ist aber einigermassen kompliziert da hin zu kommen.
Bei mir mit "virt-viewer" als Client nicht, deshalb frage ich :)
Hallo,
ich habe dazu zwar schon einiges gelesen aber kaum etwas verstanden :-) Für einen VDI-Ansatz experimentiere ich mit Spice. An sich funktioniert das sehr gut. Dazu habe ich aber ein "Problem" und eine Frage:
Problem: Timeout
Wenn eine Session länger inaktiv ist schliesst sich der...
Danke, ich erinnere mich nicht das Volume je gelöscht zu haben. Egal, dann versuche ich das mal so.
Gibt es eigentlich einen guten Grund warum per Default der thin pool angelegt wird? Kann man das beim Setup beeinflussen?
Edit: besser, funktioniert jetzt.
Hallo,
ich habe mein ersten PVE8 System installiert und scheitere mit etwas, was mit allen Vorgängerversionen immer funktioniert hat. Folgender fstab Eintrag führt dazu, dass das System nicht bootet:
/dev/pve/data /var/lib/vz xfs defaults 0 0
Ich bekomme dann:
Found volume group “pve" using...
Hi,
for good reasons I want file system storage. As usual I removed the LVM thin storage an then issued:
mkfs.xfs /dev/pve/data
and then, as usual (did this more than once with PVE) added the following line to /etc/fstab:
/dev/pve/data /var/lib/vz xfs defaults 0 0
then tested this with:
mount...
Sadly not. And yes, the 50 MB/s are from the Win10 install.
I had a look at my Nagios graphs and they proof me wrong:
Perhaps it's just me, but compared to singel nodes with RAID5 my Ceph cluster is slow.
Different brands and models of 500 GB SATA disks.
None, just the usage.
Off course not. It runs in JBOD mode.
Again: The problem popped up after upgrade from PVE4 to 5 and got even worse by switching to blue store.
Poor means W10 setup takes about 30 minutes, instead of less than 10 minutes due to slow disks. VM's are slow. With my old PVE4 setup with Ceph and without blue store on the same hardware the problem did not exist. The old system was slower than singel nodes with a RAID controller too but not...
Hi,
I've a Ceph setup wich I upgraded to the latest version and moved all disks to bluestore. Now performance is pretty bad. I get IO delay of about 10 in worst case.
I use 10GE mesh networking for Ceph. DBs are on SSD's and the OSD's are spinning disks.
Situation while doing a W10...
Hmm, now scrubbing errors are gone by doing nothing. Now I get:
~# ceph health detail
HEALTH_WARN 1 osds down; 44423/801015 objects misplaced (5.546%)
OSD_DOWN 1 osds down
osd.14 (root=default,host=pve03) is down
OBJECT_MISPLACED 44423/801015 objects misplaced (5.546%)
# systemctl status...
Hi,
I've a problem with one OSD in my Ceph cluster:
# ceph health detail
HEALTH_ERR 1 scrub errors; Possible data damage: 1 pg inconsistent
OSD_SCRUB_ERRORS 1 scrub errors
PG_DAMAGED Possible data damage: 1 pg inconsistent
pg 7.2fa is active+clean+inconsistent, acting [13,6,16]
#...
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.