Hallo!
Ich bekomme diesen Fehler beim Erstellen eines Snapshots:
snapshot create failed: starting cleanup
Logical volume "vm-601-state-vor_PHP_Upgrade" successfully removed
TASK ERROR: unable to save VM state and RAM - qemu_savevm_state_iterate error -5
Leider sehe ich nicht was der Grund...
Strom spielt im Interxion leider eine Rolle, das ist sogar der teuerste Posten, deshalb versuche ich ja relativ neue Hardware zu bekommen bzw. alle Stromsparmechanismen zu aktivieren die es gibt.
Derzeit bin ich bei einem Dell C6220 einem Ubiquiti 10GB Switch und tja, das Storage. Ich habe...
Was ich noch sagen wollte, Ich habe derzeit noch nichts gekauft muss das aber baldigst machen und abschließen. Es wird natürlich gebrauchte Hardware sein, von dem ich mir einige Cold-Spare-Teile herlegen muss (Mainboard vom Storage + Raid-Controller zB). Mein Budget ist nicht fix, aber viel mehr...
Lt.
http://www.dell.com/support/article/us/en/19/SLN156203/EN
sollte das bei dem Controller dabei sein. Ich habe ev. noch Zugriff auf einen LSI 9271-8icc bei dem ist die Lizenz schon dabei.
Dell H700 mit 1GB, SAS HDDs mit 7200upm. Der Controller könnte mit 2 SSDs auch die IOPS steigern. Storagebetriebssystem sowie Dateisystem sind eine Frage die noch offen ist. Wie gesagt, ich schaue gerade ob ich mit SSDs was hinbekomme.
Man kann immer alles besser machen. Es muss aber finanzierbar und im Rahmen sein. Das wird es so nicht. Ich habe gewisse Vorgaben die ich einhalten muss aber auch gewisse Anforderungen. Ich weiss ganz genau wie es lt. Adam Riese sein sollte, aber ich muss es mit meinem Budget bewerkstelligen...
Ich habe doch auf jedem Server 2 SFP+ Ports, was 10GBE ist? Das sollte also nicht das Problem sein. Das mit dem Storage ist mir schmerzlich bewusst. Das Ganze muss aber auch finanzierbar bleiben. Ich bin ein absoluter SSD freund, weiß aber nicht wie ich das finanziell unterbringen soll.
Hallo!
Ich teste gerade Proxmox (wieder) und habe ein paar Fragen zum Aufbau eines Clusters.
Was ich habe:
4 Server für Proxmox mit 2 x gBit LAN und 2 x SFP+ je Node (2 x E5-2670 und 128GB RAM je Node)
Storage wird ein Server der auch 2 x gBit LAN und 2 x SFP+ bekommt (2 x X5675 und 144GB...
Hi!
Proxmox is a realy nice piece auf software.
I have testet desaster recovery -> NFS Storage is defect and another storage is connected. In my case i would delete the nonexisting (defect) NFS Storage and the VMs. Thats not realy easy! Proxmox says: "TASK ERROR: mount error: mount.nfs...
I have build a new Cluster with 2 Nodes.
After adding the node this server is not be able to make reverse dns, bevor adding to the cluster, this works fine.
The dns entrys in resolv.conf are correct.
tiobench --size 40000
Run #1: /usr/bin/tiotest -t 8 -f 5000 -r 500 -b 4096 -d . -T-T
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of...
it says what it should!
Test with tiotest runs. But the picture say me that the bonding doesnt do right. When 1 nic can about 120MB, then must be 3 to 4 in work when i test the server and this doenst appear :(
The Fileserver has 8 gBit nics, that are bondet (802.3ad) to a switch (bigframe is enabled),
the 2 Nodes have also 4gBit nics (per Node), that are bondet (802.3ad).
All Nics are gbit. But with the trunk shouldn't it be more?
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.