Frag mal bei den Erstellern dieses Scriptes nach, ob möglicherweise irgendwas offline ist.Wenn ich den befehlupdateausführe kommt die fehlermeldungcurl: (6) Could not resolve host: raw.githubusercontent.com
parent: predeb13 in deiner LXC config?Das update problem hat sich schon erledigt. Aktuell ist nur noch das problem, dass die proxys nicht wirklich funktionieren (laut NPM sind sie online, beim aufruf kommt es aber immer zu einem timeout)Frag mal bei den Erstellern dieses Scriptes nach, ob möglicherweise irgendwas offline ist.
Und warum ist da einparent: predeb13in deiner LXC config?
Aha verstehe.bevor ich auf Debian 13 geupgraded habe
http + Force SSL wollen andere laufen mit https (mit oder ohne Force SSL)Nicht sicher, ob ich das SSL Zertifikat selbst erstellt habe (ist halt n let's encrypt ding)Aha verstehe.
Zertifikat hast du erstellt? NPM ist manchmal sehr wählerisch bei den Einstellungen. Ich hab einige Dienste die zB:http + Force SSLwollen andere laufen mithttps (mit oder ohne Force SSL)
Habe die alte IPv4 als statische zugewiesen und nach einem neustart war eine verbindung wiederhergestellt (vermutlich, weil der ct nur ipv6 hatte und mein Heimnetz kein ipv6 ins internet hat) siehe #19 ab zeilWie das?
cat /etc/resolv.conf
ping -c 3 8.8.8.8
ip a
ip r
ping auf die IP zeigt, ob grundsätzlich Netzwerk vorhanden ist oder ob es wirklich nur DNS betrifft.cat /etc/pve/lxc/<CT-ID>.conf
<CT-ID> die ID deines NPM-Containers ist)Danke für die Nachricht. Die meisten dieser Befehle finden sie im Verlauf des threads. aktuell funktioniert der DNS dienst auch wieder, nur die Proxies sind nicht erreichbar. ich habe das update jetzt auch im haupt-post hingeschriebenHallo @nimblefox, das ist ein klassisches DNS-Problem im Container — er kann keine Hostnamen auflösen. Bitte poste die Ausgabe folgender Befehle im Container:
DerCode:cat /etc/resolv.conf ping -c 3 8.8.8.8 ip a ip rpingauf die IP zeigt, ob grundsätzlich Netzwerk vorhanden ist oder ob es wirklich nur DNS betrifft.
Zusätzlich bitte auf dem Host:
(wobeiCode:cat /etc/pve/lxc/<CT-ID>.conf<CT-ID>die ID deines NPM-Containers ist)
sqv zur Signaturprüfung, und seit 2026-02-01 werden SHA1-basierte Binding-Signaturen abgelehnt. Der OpenResty-Signing-Key nutzt noch SHA1 — das muss upstream gefixt werden.mv /etc/apt/sources.list.d/openresty.list /etc/apt/sources.list.d/openresty.list.disabled
apt update
ip a
ip r
journalctl -u networking.service
brctl showmacs vmbr0 | grep "bc:24:11:70:78"
ich habe mich für die statische ip entschieden, da das bei port freigaben auch eine zuverlässigere lösung ist.Hallo @nimblefox,
Das OpenResty-Problem ist repo-seitig. Debian Trixie verwendetsqvzur Signaturprüfung, und seit 2026-02-01 werden SHA1-basierte Binding-Signaturen abgelehnt. Der OpenResty-Signing-Key nutzt noch SHA1 — das muss upstream gefixt werden.
Als Workaround kannst du das OpenResty-Repo vorerst deaktivieren, da es vom NPM-Build stammt und für den laufenden Betrieb nicht zwingend benötigt wird:
Zum ursprünglichen DHCP-Problem: Dass der CT nach Node-Reboot wieder eine IPv4 bekommt, deutet auf ein Timing- oder Bridge-Problem hin. Falls das erneut auftritt, prüfe im CT:Code:mv /etc/apt/sources.list.d/openresty.list /etc/apt/sources.list.d/openresty.list.disabled apt update
Und auf dem Node:Code:ip a ip r journalctl -u networking.service
Das zeigt ob der veth des CTs korrekt in der Bridge registriert ist. Speedport-Router sind bekannt dafür, bei DHCP-Requests von virtuellen MACs gelegentlich Probleme zu machen. Falls das öfter vorkommt, wäre eine statische IP für den NPM-CT die zuverlässigere Lösung.Code:brctl showmacs vmbr0 | grep "bc:24:11:70:78"
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
0 0 0 0 0 0 0 0 --:--:-- 0:00:05 --:--:-- 0WARNING: found neither IPv4 nor IPv6 address
WARNING: *.[MeineDomain].de: unable to determine IP address with strategy use=cmd
WARNING: Could not determine an IP for *.[MeineDomain].de
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
0 0 0 0 0 0 0 0 --:--:-- 0:00:05 --:--:-- 0WARNING: found neither IPv4 nor IPv6 address
WARNING: [MeineDomain].de: unable to determine IP address with strategy use=cmd
WARNING: Could not determine an IP for [MeineDomain].de
WARNING: caught SIGINT; exiting
WARNING: curl cannot connect to https://api.ipify.org using IPv0
WARNING: found neither IPv4 nor IPv6 address
WARNING: *.[MeineDomain].de: unable to determine IP address with strategy use=web
WARNING: Could not determine an IP for *.[MeineDomain].de
WARNING: curl cannot connect to https://api.ipify.org using IPv0
WARNING: found neither IPv4 nor IPv6 address
WARNING: [MeineDomain].de: unable to determine IP address with strategy use=web
WARNING: Could not determine an IP for [MeineDomain].de
WARNING: caught SIGINT; exiting
cat /etc/ddclient.conf
usev4=webv4 oder es steht was Falsches drin. Teste auch mal ob curl generell aus dem CT rauskommt:curl -4 https://api.ipify.org
iptables -L -n auf dem Host zeigt, ob da irgendwelche Regeln den Traffic blockieren.der output vom cat (sicherheitsbereinigt):Das "IPv0" in der Fehlermeldung ist der Hinweis. Das passiert wenn ddclient nicht weiß ob er IPv4 oder IPv6 nutzen soll. Poste mal deine ddclient-Konfig:
Vermutlich fehlt da einCode:cat /etc/ddclient.confusev4=webv4oder es steht was Falsches drin. Teste auch mal ob curl generell aus dem CT rauskommt:
Wenn das hängt oder fehlschlägt, hat der CT ein Problem mit ausgehendem HTTPS-Traffic (Port 443). Dann wäre interessant wasCode:curl -4 https://api.ipify.orgiptables -L -nauf dem Host zeigt, ob da irgendwelche Regeln den Traffic blockieren.
# Configuration file for ddclient generated by debconf
#
# /etc/ddclient.conf
protocol=dyndns2 \
usev4=webv4, webv4=https://checkipv4.dedyn.io/ \
server=update.dedyn.io \
login=[Mail]@gmail.com \
password='[Passwort]' \
[MeineDomain].de, *.[MeineDomain].de
WARNING: curl cannot connect to https://checkipv4.dedyn.io using IPv4
WARNING: *.[MeineDomain].de: unable to determine IPv4 address with strategy usev4=webv4
WARNING: Could not determine an IP for *.[MeineDomain].de
WARNING: curl cannot connect to https://checkipv4.dedyn.io using IPv4
WARNING: [MeineDomain].de: unable to determine IPv4 address with strategy usev4=webv4
WARNING: Could not determine an IP for [MeineDomain].de
WARNING: caught SIGINT; exiting
Chain INPUT (policy ACCEPT)
target prot opt source destination
Chain FORWARD (policy ACCEPT)
target prot opt source destination
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
ip a
ip r
curl -4 -v https://api.ipify.org 2>&1 | head -20
ping -c 3 -s 1400 -M do 192.168.1.1
curl -v zeigt, wo er hängen bleibt (DNS, TCP-Connect, TLS-Handshake), und der Ping mit 1400 Byte testet, ob große Pakete durchkommen. Wenn der Ping mit -s 1400 fehlschlägt aber mit -s 1000 klappt, hast du ein MTU-Problem.curl -4 http://icanhazip.com
hier einmal ein quasi dump von all den befehlen:OK, iptables ist sauber. Wenn curl hängt ohne Antwort, deutet das auf ein Routing- oder MTU-Problem hin.
Poste mal die Ausgabe aus dem CT:
DasCode:ip a ip r curl -4 -v https://api.ipify.org 2>&1 | head -20 ping -c 3 -s 1400 -M do 192.168.1.1curl -vzeigt, wo er hängen bleibt (DNS, TCP-Connect, TLS-Handshake), und der Ping mit 1400 Byte testet, ob große Pakete durchkommen. Wenn der Ping mit-s 1400fehlschlägt aber mit-s 1000klappt, hast du ein MTU-Problem.
Teste auch, ob HTTP funktioniert:
Wenn HTTP geht aber HTTPS nicht, ist es ein MTU-Ding. Speedport-Router sind da manchmal zickig mit der Path MTU Discovery.Code:curl -4 http://icanhazip.com
# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host noprefixroute
valid_lft forever preferred_lft forever
2: eth0@if22: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether bc:24:11:70:78:23 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 192.168.1.122/24 brd 192.168.1.255 scope global eth0
valid_lft forever preferred_lft forever
inet6 2003:ca:4706:15b9:be24:11ff:fe70:7823/64 scope global dynamic mngtmpaddr proto kernel_ra
valid_lft 172783sec preferred_lft 86383sec
inet6 fe80::be24:11ff:fe70:7823/64 scope link proto kernel_ll
valid_lft forever preferred_lft forever
# ip r
default via 255.255.255.255 dev eth0
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.122
255.255.255.255 dev eth0 scope link
# curl -4 -v
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0* Host api.ipify.org:443 was resolved.
* IPv6: (none)
* IPv4: 172.67.74.152, 104.26.12.205, 104.26.13.205
* Trying 172.67.74.152:443...
0 0 0 0 0 0 0 0 --:--:-- 0:02:14 --:--:-- 0* connect to 172.67.74.152 port 443 from 192.168.1.122 port 46072 failed: Connection timed out
0 0 0 0 0 0 0 0 --:--:-- 0:02:14 --:--:-- 0* Trying 104.26.12.205:443...
0 0 0 0 0 0 0 0 --:--:-- 0:03:36 --:--:-- 0* ipv4 connect timeout after 82616ms, move on!
* Trying 104.26.13.205:443...
0 0 0 0 0 0 0 0 --:--:-- 0:04:59 --:--:-- 0* Connection timed out after 300483 milliseconds
0 0 0 0 0 0 0 0 --:--:-- 0:05:00 --:--:-- 0
* closing connection #0
curl: (28) Connection timed out after 300483 milliseconds
#ping
PING 192.168.1.1 (192.168.1.1) 1400(1428) bytes of data.
1408 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.628 ms
1408 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.479 ms
1408 bytes from 192.168.1.1: icmp_seq=3 ttl=64 time=0.580 ms
--- 192.168.1.1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2053ms
rtt min/avg/max/mdev = 0.479/0.562/0.628/0.062 ms
#curl -4 -v http
# -v um zuzusehen
* Host icanhazip.com:80 was resolved.
* IPv6: (none)
* IPv4: 104.16.185.241, 104.16.184.241
* Trying 104.16.185.241:80...
* connect to 104.16.185.241 port 80 from 192.168.1.122 port 43600 failed: Connection timed out
* Trying 104.16.184.241:80...
* connect to 104.16.184.241 port 80 from 192.168.1.122 port 41294 failed: Connection timed out
* Failed to connect to icanhazip.com port 80 after 269936 ms: Could not connect to server
* closing connection #0
curl: (28) Failed to connect to icanhazip.com port 80 after 269936 ms: Could not connect to server
default via 255.255.255.255 dev eth0
192.168.1.1. Deshalb kommt nix ins Internet raus, obwohl lokal alles geht.ip route replace default via 192.168.1.1 dev eth0
curl -4 https://api.ipify.org
192.168.1.1 ein (nicht vergessen: CT danach neu starten). Vermutlich hast du beim Umstellen auf statische IP das Gateway-Feld einfach leer gelassen oder falsch eingetragen.Danke, das hat funktioniert.Kein MTU-Problem, der Ping mit 1400 Byte geht ja durch. Und HTTP scheitert auch, also ist es nicht TLS-spezifisch.
Das Problem ist deine Routing-Tabelle:
Das ist Quatsch als Gateway. Da muss dein Router stehen, alsoCode:default via 255.255.255.255 dev eth0192.168.1.1. Deshalb kommt nix ins Internet raus, obwohl lokal alles geht.
Zum Testen im CT:
Wenn das klappt, musst du das noch dauerhaft eintragen. Geh in die Proxmox WebUI auf den CT -> Netzwerk -> eth0, und trag als GatewayCode:ip route replace default via 192.168.1.1 dev eth0 curl -4 https://api.ipify.org192.168.1.1ein (nicht vergessen: CT danach neu starten). Vermutlich hast du beim Umstellen auf statische IP das Gateway-Feld einfach leer gelassen oder falsch eingetragen.
We use essential cookies to make this site work, and optional cookies to enhance your experience.