Würde mich auch mal interessieren, ich hatte mir bisher immer damit geholfen echte LVM Devices zu erstellen, ein EXT4 drauf zu packen und das dann mit pveperf zu testen. Ob das nun aber wirklich Aussagekräftig ist...
Aber bitte nicht mit dem P410(i), habe den mal auf HBA gestellt (gibts aber gewisser Firmware Version) und macht unter ZFS massiv Probleme. Scheint auch kein wirklicher HBA Modus zu sein sondern nur eine Deaktivierung der Raid Funktionalität. Mit einem richtigen LSI HBA klappte dann ZFS auch.
Sofern man die Features von ZFS nicht benötigt preferiere ich auch immernoch LVM Thin. Habe hier ein paar Nodes in einem Cluster mit Xeon Gold 6130 und 256GB RAM sowie 8 Enterprise SSDs. Das lüppt wunderbar, Live Migration kein Problem, die SSDs langweilen sich. Die Bandbreite per vzdump muss...
Der Pool muss gleich heißen und nicht auf einer Node 01 und auf der anderen 02. sofern eine Node noch leer ist, neu installieren. Für verschieben schau dir das manual von „qm“ an, Stichwort migrate.
Das würde nur manuell gehen da deine Pools unterschiedliche Namen haben. Ergo kannst du einen Pool den es nur auf Server 1 gibt nicht an Server 2 binden.
Da braucht man sich nicht wundern, sollte vielleicht um den Faktor 50 höher sein.
Ich hatte hier auch mal ZFS an einem DL380 G8 mit HBA Modus (ab Firmware 8.0 am i420) probiert mit 10k rpm SAS, taugte gar nichts.
Gleiche Platten in einem Supermicro System mit LSI HBA bringt mir dann 3800 Fsyncs...
Was sind das für 4TB Festplatten und was hattest du für eine Disk als SLOG genutzt?
Ohne SLOG habe ich bei Spindel Festplatten bisher generell nur schlechte Erfahrungen mit ZFS gemacht, zudem ist noch Ausschlaggebend wie viele Festplatten man wohl nutzt. Ein ZFS Raid 10 mit 4 Festplatten ist...
Probiers mal damit:
#!/bin/sh
find /verzeichnis/ -ctime +3 -print -exec rm {} \; > /verzeichnis/loeschung.log
Löscht in /verzeichnis/ alle Dateien älter 3 Tage, zur Kontrolle lasse ich noch die Ausgabe in die "loeschung.log" schreiben.
Das Script wohl dann bei vzdump hinter --script angeben.
vzdump mit --script nutzen und ein Script schreiben das Backups älter Tag X sucht und löscht? Sofern das auch beim Start genutzt wird und nicht erst nach dem Backup.
Beispiel:
Am Port ist Vlan 1 untagged und 2 tagged
Vmbr0 an diesem Port erstellt ohne ip Konfiguration
Trägst du kein vlan für die vm ein arbeitest du in vlan 1, möchtest du vlan 2 haben so stellst du in der vm netz Konfiguration halt 2 ein.
Das ist beliebig einsetzbar. Habe ein Hardware...
Wieso nicht eine neue VM erstellen mit den gleichen Disk Werten (RAM/CPU Wurst) und dann das Backup auf diese VM einspielen, starten und Files raus holen? Notfalls per LiveCD und dem gemounteten Disks in der VM.
Also ich habe auf einem Test System Proxmox auf einer Samsung Pro 850 seit 4 Jahren laufen mit einem wearout von 3% sowie einer SD Karte in einem HP DL380 G8. Auch hier seit 4 Jahren keine Probleme.
Nein, ich meine den Performance Vergleich. Gute Enterprise SSDs kosten mittlerweile nur unwesentlich mehr wie SAS 15k Platten. Wenn du neue Platten kaufen musst würde ich gleich SSDs nehmen, da spart man sich die SLog SSD.
Ich fasse mal zusammen da wir hier von den DL380 G8 ein paar Maschinen laufen haben:
- Der P420i kann ab einer bestimmten Firmware auch im HBA Modus (passthrough) laufen, ich habe die Version 8 und ist dort aktivierbar
- Ich plane für Mitte/Ende Januar eines der Systeme als FreeNAS Storage...
Sehe ich das richtig, dass das Proxmox Team genau das von mir gesuchte AMD Epyc System einmal ohne Probleme getestet hat?
Habe das hier gefunden: https://pve.proxmox.com/pipermail/pve-devel/2017-November/029315.html
Ich möchte nur ungern einen neuen Cluster hin stellen und am Ende mit unsupported Hardware da stehen. AMD hatte ich das letzte mal vor 8 Jahren in den Händen. Im Netz fand ich bisher für Linux nur Probleme aber basierend auf dem Ryzen und Desktops.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.