Search results

  1. F

    [SOLVED] Add node to cluster -> can't access ceph-vm

    My setup: 3 nodes with proxmox 4.4-92 and Ceph Jewel, it was setup like in the video described. So I have 2 pools: ceph-vm and a ceph-lxc. Cluster is fine, ceph is running over sperate 10Gb network. new node is a fresh installed and patched 4.4-92 proxmox, in the same cluster and storage...
  2. F

    [SOLVED] Add node to cluster -> can't access ceph-vm

    Hi, I have a 3 node cluster with ceph, which is running fine. Now I wanted to add nodes which just run VMs and store their data on the ceph storage. The 4. node is now part of the cluster and can access the ceph-lxc pool (and see its content) but not the ceph-vm (can't see the content). I...
  3. F

    Usable space on Ceph Storage

    I am pushing up that thread, but I still don't know how does it count: My 3 node pool has 24x 136GB disks, so 3.2TB total space. The Images in the lxc pool need 178GB, the images in the vm pool 784GB. Than why it says usage: 1,43 TB?? Even if its counted twice cause of replication it should...
  4. F

    Ceph cluster wurde full -> immer mehr OSDs sind down/out

    Hi, habe leider beim zurückspielen einer VM übersehen, das mein 3er Ceph Cluster schon an der 80% Grenze war, darauf haben die ersten OSDs gesagt sie sind full. Dann sind allerdings immer mehr OSD down. Jetzt sind auf einem Node schon alle OSDs down... Etwas löschen kann ich nicht da das full...
  5. F

    Ceph: SM863 und dennoch magere Performance

    Hi, ich habe nun mein test ceph cluster (noch auf Jewel mit proxmox 4.4) geändert: 3 Ceph Hosts (jeweils se326m1) mit einer SM863 System SSD und Monitor. Jeweils eine 1 OSD Kingston V300 (verhält sich mit fio getestet wie SM863a). Alle drei sind via 10Gbit Switch verbunden. Rados Benchmark...
  6. F

    ceph: HP 326M1 mit SAS Disks mit SSD Journal, magere Performance?

    Ich habe nun endlich Samsung SM863a 240GB bekommen und in 2 (test) Ceph Hosts eingebaut und diese direkt via 10Gbit verbunden. Das ist das Ergebnis: root@ceph1:~# rados -p test3 bench 10 write --no-cleanup sec Cur ops started finished avg MB/s cur MB/s last lat(s) avg lat(s) 0...
  7. F

    ceph: HP 326M1 mit SAS Disks mit SSD Journal, magere Performance?

    Ok, aber das ändert ja nichts daran das die von mir getesteten SSDs langsam und schlecht sind und ich in meinem Setup SM863 nehmen soll oder?
  8. F

    ceph: HP 326M1 mit SAS Disks mit SSD Journal, magere Performance?

    Hi, danke für deine Werte! Nun, ich habe jetzt aus dem 3er Cluster eine Node entfernt und die beiden verbleibenden Nodes direkt verbunden damit habe ich 10Gb. Die Schreibwerte waren immer noch mies, dann habe ich mit fio (numjobs:4) die Disk überprüft: SSD1: write: io=383208KB, bw=6386.5KB/s...
  9. F

    ceph: HP 326M1 mit SAS Disks mit SSD Journal, magere Performance?

    ok zugegeben, es handelt sich dabei noch um ein 1Gb Netz, ich hab nur einen 10Gb Switch und der ist in der Produktivinfra eingebaut. Aber der Schreibwert ist doch viel zu niedrig als, dass 1Gb der limitierende Faktor ist. Wenn so um die 100-110 MB/s rausgekommen wären, ja dann würde es auf der...
  10. F

    ceph: HP 326M1 mit SAS Disks mit SSD Journal, magere Performance?

    Hi Leute, habe jetzt mein Ceph Cluster (Proxmox 4.4) fertig: 3x HP 326M1: Jeweils: 2x SAS 146GB ZFS für OS 1x SSD 256GB für Journal 5x SAS 146GB als OSDs 2 Pools für VM und LXC jeweils 512 PG Hab jetzt als Test eine debian VM installiert und einen Leistungstest durchgeführt, meine...
  11. F

    Ceph: Wie am besten Ausfälle simulieren/testen?

    Hallo Leute, hab mir einen kleinen Test Ceph Cluster gebaut, der anstandslos funktioniert. Bevor ich nun das ganze mit "echter" HW aufbaue und die Produktiv VMs drauf lasse möchte ich noch ein paar Tests durchführen um zu verstehen was ich im Fehlerfall machen muss. Mein Setup besteht aus 3 HP...
  12. F

    Ceph: Konzeptionierungsfrage: 5er Cluster aber nur 2 als Ceph Storage?

    Ich werde das ganze noch um einen Host erweitern um Ceph ordentlich verwenden zu können. Danke!
  13. F

    Ceph: Konzeptionierungsfrage: 5er Cluster aber nur 2 als Ceph Storage?

    oh snap.. Gibts irgendeine Alternative um 2 Storages übers Netzwerk zu verwenden um Redundanz und Performance zu erhalten? Sowas wie RAID1 nur eben als Storage? Mir fällt gerade nichts ein...
  14. F

    Ceph: Konzeptionierungsfrage: 5er Cluster aber nur 2 als Ceph Storage?

    Hallo Leute, zZ. Betreibe ich einen 3er Cluster dessen Storages via iSCSI bzw. NFS angebunden sind, bin am Überlegen ob ich auf Ceph umsteigen soll. Ist es möglich 3 Proxmox Host für VMs sowie 2 Proxmox Hosts für Ceph Storages alle im selben Cluster zu betreiben? In den Videos und dem Wiki ist...
  15. F

    Backup of a specific VM cause problems (broken pipe, no config), even node crashes

    Well this is what I am doing and it works without problems. But I don't understand why it happens to only that specific VM.
  16. F

    Backup of a specific VM cause problems (broken pipe, no config), even node crashes

    Hey! I have a 3 node setup, some CT, some VMs. Disks all stored on a 10g LVM iSCSI attached NAS. Backup goes to a NFS with an attached SSD. Everything works nice am well, except 1 VM. It is a simple debian VM where I receive data via rsync. So in the past the bootdisk of that VM was about 40...
  17. F

    why no offline lxc migration via gui?

    I knew I explained it wrong :-) My idea: If you hit the "Migrate all VMs and Container" button on a node, one by one will be switched off, migrated to new node, and than started. Now I have to hit first the "Shutdown all VMs and Container", than "Migrate all VMs and Container" and finally on...
  18. F

    why no offline lxc migration via gui?

    Hey, I am moving ct from one node to another and I was asking myself why there is no option to offline migrate lxc container. If you have only lxc container on one node and you want to move them with "Migrate all VMs an Container" button, its of course not possible but it would be very helpful...
  19. F

    Error "Read Capacity" on all nodes accessing iSCSI

    After rebooting node1, it doesn't bring those messages. node2 and node3 still annoying with it. I ran lsscsi an all three nodes and saw that result: node1: root@vmbase1:~# lsscsi [0:0:0:0] disk ATA WDC WD10EFRX-68J 1A01 /dev/sda [1:0:0:0] disk ATA SAMSUNG HD103SJ 0001...
  20. F

    pveproxy become blocked state and cannot be killed

    Well I have the same problem. Any ideas?