Da docker nur wegen forwarding meckert, versuch es mal auf dem host zu aktivieren.
sysctl -w net.ipv4.ip_forward=1
Wenn der container danach startet den Eintrag zu /etc/sysctl.conf hinzufügen.
cat << 'EOF' >> /etc/sysctl.conf
net.ipv4.ip_forward=1
EOF
Hab bei mir nur docker in debian lxc...
ssd mirror mit zfs über 1gb nic auf pbs zfs hdd.
105: 2021-02-04 01:03:19 INFO: Starting Backup of VM 105 (qemu)
105: 2021-02-04 01:03:19 INFO: status = running
105: 2021-02-04 01:03:19 INFO: VM Name: xxxxx
105: 2021-02-04 01:03:19 INFO: include disk 'scsi0'...
Es geht primär darum das arbeiten als root eine gefahr darstellt.
Root wird nur bei modifikationen benötigt, neue pakete installieren, konfigurationen ändern etc.
Alles andere geht mit normalen benutzer rechten.
Es wurde erst vor einer Woche ein exploit veröffentlicht CVE-2021-3156 der jedem Benutzer erlaubt zu root zu wechseln ohne sudo rechte zu haben.
Der exploit reicht 10 Jahre zurück...
Root zu deaktivieren ist nicht wirklich möglich auf PVE. Wird für cluster, gui shell, etc. verwendet...
Wie viel Speicher ist auf dem pbs denn eigentlich belegt ?
Performance ist abhängig von IOPS, da alle chunks referenziert werden müssen.
Da du 300TB in verwendung hast sicherst du wahrscheinlich auch viel.
Die Anzahl der chunks kannst du mit "find .chunks -type f | wc -l" beim backup...
Htop alleine sagt nichts aus, ich meinte eher atop mit disk Auslastung unter "busy" und iops unter "avio" auf Quell Server sowie Ziel pbs.
Da nur 1 Kern zu 100% ausgelastet ist, gehe ich davon aus dass hier etwas single threaded läuft, da kann man dann noch so viele Kerne haben, bringt halt...
Okay it's not backups then.
Go to "/var/log/" and delete some file >= 5mb (or move it)
Then run "apt update && apt install -y ncdu"
In case this fails you have some process constantly writing to your disk and filling it in no time.
Run "ncdu -x /" and it will show you where the files are.
Interessantes setup. Aus eigenem interesse, was läuft denn da so alles drauf ?
Hast du mal atop nebenbei laufen lassen ? "atop 1" und schauen wie die auslastungen sind.
Bei mir laufen die backups nach wie vor performant.
It depends on the pool size and workload how low you can go.
Minimum would be 1GB for 1TB pool size so 6GB to cache only metadata.
To cache frequently read files and metadata I would recommend you 16-24GB.
More arc is always better for performance.
cat << 'EOF' > /etc/modprobe.d/zfs.conf
#...
You have to configure ZFS, by default arc uses 50% of total RAM.
You can add as much RAM as you like it will still use 50% if not limited.
drop_caches clears arc so it temporarily goes down.
Has nothing to do with proxmox.
The dedup table takes 20GB RAM for 1 TB pool size, this includes unused storage.
If the table does not fit into ram it's constantly read/written from disk.
It's most likely due to deduplication.
But it could also be a bad disk in your 3 way mirror, given that they have to sync.
You only enabled dedup on the vdev so you can simply recreate them without dedup using send/receive and rename.
In general don't enable dedup, in most cases the overhead...
Nah seems fine given that raidz splits data across drives.
Your S3710 200GB do 300mb/s seq write x4 = 1200mb/s. S3700 excluded for parity.
keep numjobs=1
You are running the test for less then 3 seconds, you are only testing the cache.
Technically your drives can't exceed 400mb/s in a 3 way mirror.
I would like you to test with the following and report back:
fio --name=seqwrite --filename=fio_seqwrite.fio --refill_buffers --rw=write --direct=1...
You can use the pbs backup client.
Using the FUSE option you can mount the raw block device.
What you do with it is up to you, you can read single files or stream the whole disk.
https://pbs.proxmox.com/docs/backup-client.html
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.