ZFS over iSCSI - Fehler

vielleicht mal mit einem hostnamen anstatt einer ipv6 addresse versuchen (entweder ins DNS eintragen, oder (wahrscheinlich robuster) in die /etc/hosts)?
 
Standard
Code:
-rw------- 1 root www-data 1675 Jan 13 15:00 10.1.1.100_id_rsa
-rw------- 1 root www-data  396 Jan 13 15:00 10.1.1.100_id_rsa.pub
 
Hi, mir ist gerade aufgefallen, dass bei mir im System die block devices sowie die luns, die automatisch vom Proxmox iscsi initiator node angelegt werden, nach dem neustart des target iscsi Servers einfach verschwunden sind.

Kann es sein, dass die proxmox cli den save Befehl beim Anlegen des block sowie der luns nicht ausführt?

Kannst du das bei dir bestätigen?
 
Hi, hab den Fehler schon gefunden. Liegt daran, dass mein storage server etwas länger braucht um die zfs devices zu laden (da ziemlich viel drauf ist) und deshalb beim start des rtslib-fb-targetctl.service diese noch nicht verfügbar sind.

Ein restart des Service, nachdem der Server hochgefahren und die devices verfügbar sind, löst das Problem.
Code:
service rtslib-fb-targetctl restart

Somit benötige ich irgendwie ein delay, welches auf die devices von zfs wartet.

Das dumme daran ist ja, wenn du dann "targetcli" ausführst, steht nichts in der config, und ein "exit" überschreibt die korrekte config und somit ist alles futsch.

Hier der Englische Post:
https://forum.proxmox.com/threads/iscsi-lio-targetcli-no-config-after-reboot.52966/
 
Das dumme daran ist ja, wenn du dann "targetcli" ausführst, steht nichts in der config, und ein "exit" überschreibt die korrekte config und somit ist alles futsch.
Das ist blöd. Als unschönen fix könnest du das ganze einfach in die rc.local packen, so mach ich das auch... oder du schreibst ein schönes File für systemd :cool:

Vorher das Scsiservice vom Autostart raus nehmen.

Code:
cat /etc/rc.local
#!/bin/sh -e
#
# rc.local
#
# This script is executed at the end of each multiuser runlevel.
# Make sure that the script will "exit 0" on success or any other
# value on error.
#
# In order to enable or disable this script just change the execution
# bits.
#
# By default this script does nothing.

sleep 20
systemctl start dein.service

exit0
oder
Code:
systemctl edit --full deinservice
 
Hallo zusammen!
Das Tutorial hat bei mir bisher prima funktioniert. Ich konnte damit zwei Storages teilen, einmal ein einfach zfs auf eine Einzelnen Platte und ein zfs mirror auf zwei platten, die all auf dem node "pve0" liegen. Seit kurzem habe ich nun aber Probleme und ich kann keine neuen VM disks mehr anlegen. Zwar wird die neue VM disk erstellt (sie ist sowohl lokal als auch auf allen anderen nodes sichtbar) aber die Erstellung (zB auf node "pve2" für VM "105") schlägt am Ende fehl mit der Meldung failed to update VM 105: Could not open /dev/local-zfs/vm-105-disk-0 (500)
auf dem host (pve0) findet sich unter /dev kein "local-zfs", sondern lediglich unter /dev/zvol/local-zfs.
Wenn ich nun manuell einen Symlink unter /dev /auf /dev/zvol erstelle, funktioniert die disk Erstellung.
Hat sich da mit den Updates ein Bug eingeschlichen, oder müsste ggf. nur das Tutorial ergänzt werden?
 
Last edited:

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!