[SOLVED] pvestatd storage is not online

Marvin83

New Member
Jan 30, 2022
10
0
1
41
Hallo zusammen,

ich bin neu bei Proxmox.

Ich habe vor einigen Wochen 2 Proxmox-Server geerbt, 1x PVE Version 4 und 1x PVE Version 5. Wir hatten diesen beiden Server mit einer FreeNAS als Sicherungs-Server gekoppelt. Da ich mir unsicher war, habe ich die Bestandsserver nicht migriert, da einer unserer IT-Admins gekündigt hat, wollte ich mich erstmal vorsichtig an Proxmox ran tasten.

Da wir keine wirkliche Redundanz hatten, habe ich gleich 2x neue Hardware bestellt und aus den alten Proxmox-Versionen nun PVE 7.1 gemacht. Aus dem FreeNAS habe ich nun ein aktuelles TrueNAS gemacht. Also quasi alle Server sind nun up to date und haben meines Wissens nach (wir sind ein kleines Mittelstandsunternehmen) genug Power und Performance (wir fahren ca. 6 VMs und 3 Container). Also keine Unterdimensionierung der Hardware/Switche (alles min. 1Gbit-Netzwerk für die DaSi sogar 10Gbit bereitgestellt).

Ich habe die Container und die VMs per Rücksicherung wiederhergestellt. Bis auf das eine oder andere wo ich schon desöfteren im Forum fündig geworden bin, läuft alles soweit. Habe mittlerweile auch das PMG installiert, da wir einen MS Exchange im Einsatz haben und ich die GUI und den Rest von Proxmox super finde.

Ich habe aktuell ein großes Problem (durch Zufall im Syslog gefunden und weil die E-Mail Benachrichtung von Proxmox nach der Datensicherung immer länger gedauert hat).

Ich habe die beiden Proxmox-Server + TrueNAS mit einem eigenen Netzwerk (10Gbit vernetzt, eigenes Subnetz). Die Proxmox-Server bestehen aus 2 Sockets je 16 Core Intel Xeon (2.4GHz), 128GB-RAM und 4x20TB SAS (WD HC330) im Raid10. Das TrueNAS ist ein AMD Ryzen 5 (1500x) mit 16GB und 4x6TB WD NAS red (ZFS RaidZ+Hotspare). Wenn ich den Load bei TrueNAS und Proxmox sehe, spielen sich die Server an den Eiern rum... Also eigentlich keine wirkliche Last (beim TrueNAS ist die CPU Auslastung nie größer als 3%, habe jetzt nochmal RAM bestellt, damit ich 32GB anstatt 16GB habe, weiß nicht ob das hilft). Die RAM-Erweiterung hatte ich in Betracht gezogen, da ich von einem Member aus diesem Forum gelesen habe, dass die Meldung Storage not Online evtl. damit zusammenhängen kann, wenn der TrueNAS überlastet ist. Zwischen den Proxmox-Servern und dem TrueNAS existiert auch keine Firewall. Ich habe in den Servern jeweils 1Gbit und 10Gbit Netzwerkkarten verbaut. Ebenso sind alle Switche 1Gbit bzw. 10Gbit (LWL), ich vewende auch die dementsprechenden CAT-6A-Kabel bzw. LWL-Kabel. Die Server haben jeweils eigene Boot-Platten (M2-SSD = Proxmox bzw. SSD bei TrueNAS).

Ich hätte jetzt erwartet, wenn ich ein Backup mache, dass ich mit mehr als 50MB manchmal 65MB/s sichern könnte (manchmal sogar nur 30MB/s). Ich erhalte aber auch ständig folgende Meldungen auf beiden Proxmox-Servern (siehe unten). Außerdem spamt mir die Meldung das Syslog voll!


Jan 30 14:20:08 proxmox-mailgateway pvestatd[228187]: storage 'TrueNAS-12.0-U7-367-NFS' is not online
Jan 30 14:20:14 proxmox-mailgateway pvestatd[228187]: storage 'TrueNAS-12.0-U7-367-NFS' is not online


Jetzt habe schon das Timeout von 2 Sekunden auf 5 Sekunden anbehoben (wie des öfteren im Forum gelesen) und PVESTATD neu gestartet.

Ich habe auch diesen RPC-Aufruf gemacht. Wenn die Server sichern, dauert die Antwort einige Sekunden und wenn die Server nicht sichern (idle), dann kommt die Antwort sofort.

Pings laufen ohne Unterbrechungen auch NSLOOKUP funktioniert (jeweils auf allen Servern).

Ich weiß nicht, was ich noch machen könnte. Bin ein wenig aufgebracht. Was auch noch passiert ist, wenn ich während der Sicherung auf das Storage klicke (unter Backups oder Übersicht) erhalte ich immer ein Timeout mit Error 500. Ich habe es sogar mal geschafft, dass das TrueNAS hängengeblieben ist, was nicht gut ist, während einer Sicherung, dadurch ist auch schon ein Proxmox-Knoten hängen geblieben.

Ich habe jetzt (aus unserer Firmen-Sicht, nicht was größere Unternehmen aufbringen) ein haufen Kohle für alles ausgebeben und die Kisten laufen wie ein Sack Flöhe. Bevor ich jetzt das ganze Netzwerk monitore, ob Syn/Acks Probleme machen oder wie auch immer, wollte ich von Euch einen Rat. Wir setzen quasi nur Layer2 Switche von Netgear ein, tracen könnte ich nur auf den Proxmox/TrueNAS-Servern.


Beispiel 1 hier war es noch eine FreeNAS jetzt TrueNAS:


INFO: Starting Backup of VM 101 (lxc)
INFO: Backup started at 2022-01-10 18:30:05
INFO: status = running
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: CT Name: fileserver-ubuntu-20-04-lts
INFO: including mount point rootfs ('/') in backup
INFO: stopping virtual guest
INFO: creating vzdump archive '/mnt/pve/FreeNAS-367-NFS/dump/vzdump-lxc-101-2022_01_10-18_30_05.tar.zst'
INFO: Total bytes written: 397896826880 (371GiB, 25MiB/s)
INFO: archive file size: 212.01GB
INFO: prune older backups with retention: keep-last=10
INFO: pruned 0 backup(s)
INFO: restarting vm
INFO: guest is online again after 16057 seconds
INFO: Finished Backup of VM 101 (04:27:37)
INFO: Backup finished at 2022-01-10 22:57:42
INFO: Backup job finished successfully
TASK OK


Oder Beispiel 2, von einem anderen Proxmox-Server wo ich auf einer VM das PMG von Proxmox installiert habe, sonst keine VMs aktiv, außer eine.

INFO: starting new backup job: vzdump 200 --storage TrueNAS-12.0-U7-367-NFS --remove 0 --mode stop --node proxmox-mailgateway --compress zstd
INFO: Starting Backup of VM 200 (qemu)
INFO: Backup started at 2022-01-30 13:41:08
INFO: status = stopped
INFO: backup mode: stop
INFO: ionice priority: 7
INFO: VM Name: pfSense-FreeBSD
INFO: include disk 'virtio0' 'Proxmox-Raid1-2TB:vm-200-disk-0' 50G
INFO: creating vzdump archive '/mnt/pve/TrueNAS-12.0-U7-367-NFS/dump/vzdump-qemu-200-2022_01_30-13_41_08.vma.zst'
INFO: starting kvm to execute backup task
INFO: started backup task '480e2af1-e62a-43e2-ab6d-4f4a35310b57'
INFO: 1% (725.0 MiB of 50.0 GiB) in 3s, read: 241.7 MiB/s, write: 172.2 MiB/s
INFO: 2% (1.3 GiB of 50.0 GiB) in 6s, read: 206.6 MiB/s, write: 203.7 MiB/s
INFO: 3% (1.8 GiB of 50.0 GiB) in 9s, read: 176.4 MiB/s, write: 174.6 MiB/s
INFO: 4% (2.5 GiB of 50.0 GiB) in 12s, read: 222.3 MiB/s, write: 209.8 MiB/s
INFO: 6% (3.1 GiB of 50.0 GiB) in 15s, read: 216.3 MiB/s, write: 215.6 MiB/s
INFO: 7% (3.9 GiB of 50.0 GiB) in 18s, read: 276.7 MiB/s, write: 262.3 MiB/s
INFO: 9% (4.7 GiB of 50.0 GiB) in 21s, read: 250.1 MiB/s, write: 238.2 MiB/s
INFO: 11% (5.5 GiB of 50.0 GiB) in 24s, read: 290.0 MiB/s, write: 288.6 MiB/s
INFO: 12% (6.4 GiB of 50.0 GiB) in 27s, read: 287.6 MiB/s, write: 277.2 MiB/s
INFO: 13% (6.9 GiB of 50.0 GiB) in 30s, read: 197.0 MiB/s, write: 195.5 MiB/s
INFO: 15% (7.7 GiB of 50.0 GiB) in 33s, read: 277.9 MiB/s, write: 275.9 MiB/s
INFO: 16% (8.5 GiB of 50.0 GiB) in 36s, read: 250.1 MiB/s, write: 235.5 MiB/s
INFO: 18% (9.3 GiB of 50.0 GiB) in 39s, read: 281.5 MiB/s, write: 279.8 MiB/s
INFO: 20% (10.1 GiB of 50.0 GiB) in 42s, read: 290.0 MiB/s, write: 276.6 MiB/s
INFO: 21% (10.8 GiB of 50.0 GiB) in 45s, read: 226.0 MiB/s, write: 225.2 MiB/s
INFO: 23% (11.7 GiB of 50.0 GiB) in 48s, read: 297.2 MiB/s, write: 293.0 MiB/s
INFO: 25% (12.5 GiB of 50.0 GiB) in 51s, read: 281.5 MiB/s, write: 269.1 MiB/s
INFO: 26% (13.3 GiB of 50.0 GiB) in 54s, read: 279.1 MiB/s, write: 276.9 MiB/s
INFO: 28% (14.2 GiB of 50.0 GiB) in 57s, read: 311.8 MiB/s, write: 298.2 MiB/s
INFO: 30% (15.1 GiB of 50.0 GiB) in 1m, read: 303.3 MiB/s, write: 301.1 MiB/s
INFO: 32% (16.0 GiB of 50.0 GiB) in 1m 3s, read: 308.1 MiB/s, write: 297.6 MiB/s
INFO: 33% (16.8 GiB of 50.0 GiB) in 1m 6s, read: 275.5 MiB/s, write: 272.2 MiB/s
INFO: 35% (17.6 GiB of 50.0 GiB) in 1m 9s, read: 267.0 MiB/s, write: 266.3 MiB/s
INFO: 36% (18.4 GiB of 50.0 GiB) in 1m 12s, read: 273.1 MiB/s, write: 258.5 MiB/s
INFO: 38% (19.2 GiB of 50.0 GiB) in 1m 15s, read: 279.1 MiB/s, write: 278.3 MiB/s
INFO: 40% (20.1 GiB of 50.0 GiB) in 1m 18s, read: 311.8 MiB/s, write: 299.0 MiB/s
INFO: 41% (20.6 GiB of 50.0 GiB) in 1m 21s, read: 168.0 MiB/s, write: 166.4 MiB/s
INFO: 42% (21.2 GiB of 50.0 GiB) in 1m 24s, read: 183.7 MiB/s, write: 183.5 MiB/s
INFO: 43% (21.5 GiB of 50.0 GiB) in 1m 27s, read: 118.4 MiB/s, write: 118.4 MiB/s
INFO: 44% (22.3 GiB of 50.0 GiB) in 1m 30s, read: 258.6 MiB/s, write: 242.5 MiB/s
INFO: 45% (22.6 GiB of 50.0 GiB) in 1m 33s, read: 107.5 MiB/s, write: 107.3 MiB/s
INFO: 46% (23.0 GiB of 50.0 GiB) in 1m 41s, read: 54.4 MiB/s, write: 54.4 MiB/s
INFO: 47% (23.5 GiB of 50.0 GiB) in 1m 48s, read: 70.9 MiB/s, write: 70.9 MiB/s
INFO: 48% (24.1 GiB of 50.0 GiB) in 1m 55s, read: 80.8 MiB/s, write: 75.4 MiB/s
INFO: 49% (24.5 GiB of 50.0 GiB) in 2m 6s, read: 41.9 MiB/s, write: 41.8 MiB/s
INFO: 50% (25.0 GiB of 50.0 GiB) in 2m 37s, read: 16.8 MiB/s, write: 16.8 MiB/s
INFO: 51% (25.5 GiB of 50.0 GiB) in 2m 56s, read: 26.9 MiB/s, write: 26.9 MiB/s
INFO: 52% (26.0 GiB of 50.0 GiB) in 3m 22s, read: 20.6 MiB/s, write: 19.4 MiB/s
INFO: 53% (26.5 GiB of 50.0 GiB) in 3m 34s, read: 39.3 MiB/s, write: 39.3 MiB/s
INFO: 54% (27.0 GiB of 50.0 GiB) in 4m 3s, read: 17.8 MiB/s, write: 17.6 MiB/s
INFO: 55% (27.5 GiB of 50.0 GiB) in 4m 18s, read: 33.8 MiB/s, write: 33.7 MiB/s
INFO: 56% (28.0 GiB of 50.0 GiB) in 5m 44s, read: 5.9 MiB/s, write: 5.8 MiB/s
INFO: 57% (28.5 GiB of 50.0 GiB) in 5m 58s, read: 38.3 MiB/s, write: 36.1 MiB/s
INFO: 58% (29.0 GiB of 50.0 GiB) in 6m 43s, read: 11.0 MiB/s, write: 11.0 MiB/s
INFO: 59% (29.5 GiB of 50.0 GiB) in 7m 15s, read: 15.7 MiB/s, write: 15.7 MiB/s
INFO: 60% (30.0 GiB of 50.0 GiB) in 7m 32s, read: 31.1 MiB/s, write: 30.9 MiB/s
INFO: 61% (30.5 GiB of 50.0 GiB) in 7m 57s, read: 20.2 MiB/s, write: 19.9 MiB/s
INFO: 62% (31.0 GiB of 50.0 GiB) in 9m 8s, read: 7.0 MiB/s, write: 7.0 MiB/s
INFO: 63% (31.5 GiB of 50.0 GiB) in 9m 37s, read: 18.4 MiB/s, write: 18.2 MiB/s
INFO: 64% (32.1 GiB of 50.0 GiB) in 10m 12s, read: 15.5 MiB/s, write: 14.8 MiB/s
INFO: 65% (32.5 GiB of 50.0 GiB) in 10m 47s, read: 13.3 MiB/s, write: 13.2 MiB/s
INFO: 66% (33.0 GiB of 50.0 GiB) in 11m 2s, read: 36.0 MiB/s, write: 35.9 MiB/s
INFO: 67% (33.6 GiB of 50.0 GiB) in 11m 9s, read: 89.6 MiB/s, write: 89.6 MiB/s
INFO: 68% (34.1 GiB of 50.0 GiB) in 11m 13s, read: 111.5 MiB/s, write: 103.5 MiB/s
INFO: 69% (34.6 GiB of 50.0 GiB) in 11m 19s, read: 84.0 MiB/s, write: 83.9 MiB/s
INFO: 70% (35.1 GiB of 50.0 GiB) in 11m 52s, read: 15.9 MiB/s, write: 15.9 MiB/s
INFO: 71% (35.5 GiB of 50.0 GiB) in 11m 57s, read: 91.3 MiB/s, write: 91.1 MiB/s
INFO: 72% (36.1 GiB of 50.0 GiB) in 12m 2s, read: 110.2 MiB/s, write: 102.3 MiB/s
INFO: 73% (36.5 GiB of 50.0 GiB) in 12m 5s, read: 152.2 MiB/s, write: 149.0 MiB/s
INFO: 74% (37.2 GiB of 50.0 GiB) in 12m 16s, read: 60.3 MiB/s, write: 60.3 MiB/s
INFO: 76% (38.0 GiB of 50.0 GiB) in 12m 19s, read: 292.6 MiB/s, write: 285.7 MiB/s
INFO: 77% (38.5 GiB of 50.0 GiB) in 12m 24s, read: 105.0 MiB/s, write: 102.8 MiB/s
INFO: 78% (39.0 GiB of 50.0 GiB) in 12m 52s, read: 17.1 MiB/s, write: 17.1 MiB/s
INFO: 79% (39.5 GiB of 50.0 GiB) in 13m 34s, read: 12.6 MiB/s, write: 12.6 MiB/s
INFO: 80% (40.1 GiB of 50.0 GiB) in 13m 54s, read: 27.5 MiB/s, write: 25.4 MiB/s
INFO: 81% (40.6 GiB of 50.0 GiB) in 13m 58s, read: 138.7 MiB/s, write: 138.1 MiB/s
INFO: 82% (41.2 GiB of 50.0 GiB) in 14m 3s, read: 131.9 MiB/s, write: 114.0 MiB/s
INFO: 83% (41.5 GiB of 50.0 GiB) in 14m 11s, read: 36.7 MiB/s, write: 32.7 MiB/s
INFO: 84% (42.1 GiB of 50.0 GiB) in 14m 21s, read: 55.1 MiB/s, write: 51.2 MiB/s
INFO: 85% (42.6 GiB of 50.0 GiB) in 14m 43s, read: 24.2 MiB/s, write: 24.0 MiB/s
INFO: 86% (43.0 GiB of 50.0 GiB) in 14m 51s, read: 55.7 MiB/s, write: 55.7 MiB/s
INFO: 87% (43.5 GiB of 50.0 GiB) in 15m 10s, read: 25.8 MiB/s, write: 25.7 MiB/s
INFO: 88% (44.1 GiB of 50.0 GiB) in 15m 15s, read: 118.9 MiB/s, write: 112.9 MiB/s
INFO: 89% (44.5 GiB of 50.0 GiB) in 15m 23s, read: 56.6 MiB/s, write: 56.5 MiB/s
INFO: 90% (45.3 GiB of 50.0 GiB) in 15m 28s, read: 151.5 MiB/s, write: 151.3 MiB/s
INFO: 91% (45.8 GiB of 50.0 GiB) in 15m 31s, read: 171.6 MiB/s, write: 171.4 MiB/s
INFO: 92% (46.1 GiB of 50.0 GiB) in 15m 36s, read: 58.7 MiB/s, write: 58.7 MiB/s
INFO: 93% (46.6 GiB of 50.0 GiB) in 15m 44s, read: 75.7 MiB/s, write: 75.6 MiB/s
INFO: 94% (47.2 GiB of 50.0 GiB) in 15m 47s, read: 182.5 MiB/s, write: 182.3 MiB/s
INFO: 95% (47.5 GiB of 50.0 GiB) in 15m 51s, read: 90.6 MiB/s, write: 90.4 MiB/s
INFO: 96% (48.1 GiB of 50.0 GiB) in 15m 57s, read: 90.0 MiB/s, write: 89.8 MiB/s
INFO: 97% (48.5 GiB of 50.0 GiB) in 16m 11s, read: 32.4 MiB/s, write: 32.3 MiB/s
INFO: 98% (49.1 GiB of 50.0 GiB) in 16m 25s, read: 40.1 MiB/s, write: 40.0 MiB/s
INFO: 99% (49.5 GiB of 50.0 GiB) in 16m 30s, read: 94.2 MiB/s, write: 94.0 MiB/s
INFO: 100% (50.0 GiB of 50.0 GiB) in 16m 35s, read: 100.1 MiB/s, write: 100.1 MiB/s
INFO: backup is sparse: 1.26 GiB (2%) total zero data
INFO: transferred 50.00 GiB in 995 seconds (51.5 MiB/s)
INFO: stopping kvm after backup task
INFO: archive file size: 15.93GB
INFO: Finished Backup of VM 200 (00:20:14)
INFO: Backup finished at 2022-01-30 14:01:22
INFO: Backup job finished successfully
TASK OK


Vielleicht hat noch jemand eine Idee, ich habe hier schon einige Dinge aus dem Forum ausprobiert (neu gemountet vorher alles ungemountet usw.). Wenn Ihr noch mehr Abfragen oder Config-Auszüge benötigt meldet euch bitte. Wie schon oben mitgeteilt, ich bin ein Newbie.
 
Last edited:
Anbei noch meine Paketversionen:

proxmox-ve: 7.1-1 (running kernel: 5.13.19-2-pve) pve-manager: 7.1-7 (running version: 7.1-7/df5740ad) pve-kernel-helper: 7.1-6 pve-kernel-5.13: 7.1-5 pve-kernel-5.13.19-2-pve: 5.13.19-4 ceph: 16.2.7 ceph-fuse: 16.2.7 corosync: 3.1.5-pve2 criu: 3.15-1+pve-1 glusterfs-client: 9.2-1 ifupdown2: 3.1.0-1+pmx3 ksm-control-daemon: 1.4-1 libjs-extjs: 7.0.0-1 libknet1: 1.22-pve2 libproxmox-acme-perl: 1.4.0 libproxmox-backup-qemu0: 1.2.0-1 libpve-access-control: 7.1-5 libpve-apiclient-perl: 3.2-1 libpve-common-perl: 7.0-14 libpve-guest-common-perl: 4.0-3 libpve-http-server-perl: 4.0-4 libpve-storage-perl: 7.0-15 libspice-server1: 0.14.3-2.1 lvm2: 2.03.11-2.1 lxc-pve: 4.0.11-1 lxcfs: 4.0.11-pve1 novnc-pve: 1.2.0-3 proxmox-backup-client: 2.1.2-1 proxmox-backup-file-restore: 2.1.2-1 proxmox-mini-journalreader: 1.3-1 proxmox-widget-toolkit: 3.4-4 pve-cluster: 7.1-2 pve-container: 4.1-2 pve-docs: 7.1-2 pve-edk2-firmware: 3.20210831-2 pve-firewall: 4.2-5 pve-firmware: 3.3-3 pve-ha-manager: 3.3-1 pve-i18n: 2.6-2 pve-qemu-kvm: 6.1.0-3 pve-xtermjs: 4.12.0-1 qemu-server: 7.1-4 smartmontools: 7.2-1 spiceterm: 3.2-2 swtpm: 0.7.0~rc1+2 vncterm: 1.7-1 zfsutils-linux: 2.1.1-pve3
 

Datenträgertyp:​

HDD

Beschreibung:​


Model:​

WDC WD60EFAX-68SHWN0

Transfer Mode:​

Auto

Rotationsrate (RPM):​

5400

HDD Standby:​

ALWAYS ON

Erweitertes Energiemanagement:​

DISABLED

Akustikpegel:​

DISABLED

Enable S.M.A.R.T.:​

true

S.M.A.R.T. zusätzliche Optionen:​

 
Ich habe auch mal einen Netzwerktest gemacht:


Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 0.083 MByte (default)
------------------------------------------------------------
[ 3] local 192.168.2.4 port 38878 connected with 192.168.2.1 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0000-10.0008 sec 8201 MBytes 6879 Mbits/sec
root@proxmox-mailgateway:~# iperf -c 192.168.2.1 -p 5001 -f m^C
 
Ich könnte den Pool neu einrichten z.B. ein RAID Mirror bei TrueNAS. Wenn das was bringen sollte…
 

Model:​

WDC WD60EFAX-68SHWN0

Das sind leider SMR-Platten und dadurch so ziemlich die schlechteste Wahl für Raid im Allgemeinen, ZFS-Raid im Besonderen und erst recht ZFS-RaidZ.

Ich könnte den Pool neu einrichten z.B. ein RAID Mirror bei TrueNAS.

Ein Raid10, also ein striped mirror mit den 4 Platten wäre jetzt auch mein Vorschlag eines Versuches gewesen. Eventuell sogar zwei separate mirror pools?

Allerdings habe ich da selbst keinen Praxisvergleich, ob das bei SMR-Platten etwas nennenswert bringt. Deshalb von mir leider keinerlei Vorhersage!

Über kurz oder lang würde ich allerdings so oder so den Umstieg auf Non-SMR-Platten empfehlen, insbesondere im produktiven Einsatz.
 
Habe ein neues Pool mit Stripe und Hotspare eingerichtet. Es hat sich nichts getan… immer noch ständige Unterbrechungen. Ich habe mal über Samba eine 6Gb-Datei kopiert und dabei gesehen das ich die 48Mb/s nicht überschreite. Wieso klappt das denn mit dd und nicht wenn die Daten über das Netzwerk kommen? Habe auch gerade auf der CT Webseite einen Bericht über WD und SMR gelesen (dabei soll es bei SMR nur hohe Schwankungen geben, aber 48Mb/s ist echt mies). Da hat mein Vorgänger tatsächlich eine schlechte Plattenwahl getroffen.

Hoffentlich sind es wirklich die Platten, würde dann auf Seagate Exos ausweichen. Oder was meint ihr?
 
Last edited:
Und wie kann ich das am Besten testen Dietmar?

Bei Samba habe ich permanent 48Mb/s ohne Abbrüche (Win10 Client < > Proxmox VM), bei Proxmox mit dem TrueNAS als Samba-Laufwerk erhalte ich ebenfalls die Fehlermeldung, dass das Laufwerk nicht Online ist.

Habe jetzt CMR-Platten bestellt (Seagate Exos), hoffe das Problem ist dann endlich weg.
 
@dietmar,

Ich habe es herausgefunden. Man muss das Timeout von 5 Sek. auf 2 Sek. wieder anpassen (Default) und Pvestatd restarten. Jetzt ist der Status wieder in Ordnung und von Unknown auf Activ gewechselt.


@Neobin,

Ich habe beim TrueNAS ein bisschen mit dem ZFS Einstellungen gespielt (Sync = disabled und A-Time = disabled). Danach bekomme ich kein Timeout mehr im Syslog unter Proxmox. Wenn man jetzt noch ein Raid0 Stripe macht gehen die CMR Platten > 200Mb/s. Dafür ist die Sicherheit gleich 0. Wenn die neuen Platten kommen, aktiviere ich wieder alles und die CMR-Platten segnen leider das zeitliche.

Danke für die Tipps.
 
A-Time = disabled

Stimmt, das hätte ich erwähnen/nachfragen können. Habe ich nicht dran gedacht, da ich die atime bei mir immer schon automatisch überall deaktiviere, ohne großes Nachdenken. :D

Aber ja, atime ist in der Konstellation mit den SMR-Platten natürlich nochmal extra kontraproduktiv.

Ich persönlich würde, wie oben schon erwähnt, auch mit den neuen CMR-Platten die atime deaktivieren, es sei denn, "etwas" (Anwendung, Service, Script, was auch immer) ist darauf explizit angewiesen.
 
@dietmar,

Ich habe es herausgefunden. Man muss das Timeout von 5 Sek. auf 2 Sek. wieder anpassen (Default) und Pvestatd restarten. Jetzt ist der Status wieder in Ordnung und von Unknown auf Activ gewechselt.

Wie wird dieses Timeout justiert? Ich bemerke seitdem ich einzelne Nodes auf 7 hochziehe dass sie Probleme haben wenn ein Backup auf eine Freenas CIFS geschrieben wird. Mitten im Backup bricht die Verbindung weg. Das passiert nicht auf den 6er Nodes.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!