Thank you for the answer,
yes your right until today I misunderstand this. (I have a Windos VM in with every second month around 15 GB Update files re-emerged, which I won't to exclude) but my fault, was a confuse between file-level-backup with the proxmox-backup-client and the Image based...
Hi j.io,
if I read the very new Documentation right: https://pbs.proxmox.com/docs/backup-client.html
under the headline: "Creating Backups"
...
"and then uploads a file archive named root.pxar containing all the files in the / directory."
...
have a look there, if your syntax is the same as...
Hi,
I have a question about the right syntax, charsets and encoding for the "Excluding files/folders from a backup" file, named ".pxarexclude" for a windows VM:
There is a windows 2019 Server VM, with drive F\:
(F:)
├── SFirm
│ └── money
├── Archiv
│ ├── Progs
│ │ ├── Prog01
│ │...
dann sind wir uns doch im Prinzip alle einig:
wenn ZFS, dann für zB das VM Betriebssystem oder andere schreib/lese anspruchsvollere Anwendungen mindestens ein SSD-Raid1 oder ein HDD-Raid10 und wenn's noch schneller sein soll: SSDs mit U.2 / PCIe Schnittstelle.
Als Datenserver oder...
Sorry for the stupid question.
I forgot the option to change the OS Type after the vm creation. Now I see this option under “Options ” ;-)
The solution so is easy:
at first I work with the right OS Version: 2012r2, in the second step, when I Upgrade Windows I change it to the new version: 2019...
Hi,
I have a two step project:
1:
in the first (P2V) step I would migrate one bare metal Windows 2012 R2 Server to one PVE VM. Physical-to-virtual migration with clonezilla.
Because security and test reasons this VM should run for some few days or weeks.
2:
but after this short time this...
Das wäre doch mal eine zu knackende Nuss für jemand mit etwas know-how, zu berechnen, in wie weit Raid 10 nicht auch langlebiger als Raidz1/5 wäre?
Nr1: denn zum einen habe ich durch Striping weniger Schreiblasst pro disk, Nr2: außerdem und zusätzlich fällt das Schreiben für die Parität weg...
Hi,
only for your Information:
I have a Mini-Server Setup with a small ASRock J5040-ITX Board and Proxmox 6.3-6 and Kernel 5.4-106.1
I also get this messages:
cgroup2: Unknown parameter 'memory_recursiveprot'
but this messages popup only start on Command-line, if I start a debian bullseye LXC...
only for information:
I create an an LXC Container with an Debian Bullseye "rootfs.tar.xz" file (OT: because of the backupPC Version 4)
At first as a privileged Container (Unprivileged container = no)
I get the same dmesg Error
apparmor="DENIED" operation="mount" info="failed flags match"...
Dank dir für deine Überlegung und Infos. Auf die Idee wäre ich nicht gekommen. Ich hab bisher immer auf Supermicro Boards gesetzt mit "vielen" Ports für Laufwerke (natürlich ohne onboard Raid), und auf Gehäuse wo die Laufwerke reinpassen (zB Cooler-Master Cosmos) gesetzt.
Dein Setup gibt ja noch...
Komisch dass es hier noch keine Reaktion gibt.
Witzig ist auch, dass ich fasst die gleichen Erfahrungen mit SSDs habe, mit dem Resultat zB die "swappiness" zumindest bei SSDs generell auf 10 runter zu regeln und ebenfalls wegen SSDs Swap schon auf HDDs umgelagert hatte ;-)
Finde ich absolut...
Ahh, das hört sich interessant an.
Jetzt verstehe ich auch, was mit TrueNAS und Durchreichen gemeint war, danke dafür.
Meinst du die bringen gegenüber den Supermicro onboard SATA Anschlüssen Vorteile, vorausgesetzt die onboard reichen mir?
Zwei Nachteile fallen mir schnell ein: zusätzliche...
zu1:
nicht ganz: die Performance hängt vom Raid level ab, R10 schneller als R5, und ist recht unabhängig von der größe, mein R5 ist mehr als doppelt s drei mal groß wie mein R10; 12TB zu 32TB.
zu2:
ich kann dir leider nicht ganz folgen???
Was hast du denn immer mit TureNAS und durchreichen?
Du...
Nö 1:,
Wenn ZFS Raid, kommen die immer direkt an das Mainboard oder einen extra dafür vorgesehenen Controller, sogenannte HBA Conroller ohne Raid funktion. (das umflashen eines Raid-Controllers ist ein Notlösung, die funktionieren kann ... (etwas ironisch gemeint, lass da die Finger von) )
Nö 2...
Ja, ich zeig dir mal, wie das eingerichtet unter Proxmox aussieht:
root@fcpro ~ # zpool status
## EIN RAID 10
pool: r10pool
state: ONLINE
scan: scrub repaired 0B in 02:21:19 with 0 errors on Sun Mar 14 02:45:20 2021
config:
NAME STATE READ WRITE...
Zu deinem (wohl nicht funktionierenden) Bond hatte ich oben schon was geschrieben ...
und guck mal hier https://forum.proxmox.com/threads/kernel-netzwerk-meldungen.87419/
guck mal in dein Post #18 ; LACP ist nach Standard: 802.3ad. Und da klappt die Antworterei nicht, also nächste Baustelle ;-)
Als opjektive Werte kannst du zwischen den Teilen vor allem folgende Werte vergleichen:
Bewertung der Ausdauer (lebenslange Schreibzugriffe)
und/oder den DWPD (Drives Writes Per Day) (siehe: https://www.kingston.com/germany/de/ssd/dwpd )
IOPS
und evtl. die restlichen Gewindigkeitsparameter...
Zum ZFS:
Als absoluter ZFS Fan würde ich auch einem Einsteiger zu ZFS raten (Wenn du damit nicht gerade ein Krankenhaus-Server sofort produktiv schalten willst oder gerade dann ;-))
Geh mal auf die youtupe und such' nach "zfs rocks", da wird dir geholfen
Ich wähle meistens, wenn es ums Gelt geht...
Automatisch nur wenn sofort ERROR festgestellt werden, sonst kommt nix.
Das Ergebnis zeigt:
smartctl -l selftest /dev/sdd
## und
smartctl -H /dev/sdd
Ist aber in der SMART Gesamtausgabe "-a" auch immer mit enthalten.
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.