[SOLVED] CT Startet nicht ....missing arch

Thunder1504

New Member
Oct 17, 2021
12
0
1
38
Guten Abend zusammen,

habe seit mehreren Tagen ein Problem habe versucht es selber zulösen schaffe es, aber leider nicht.
Die CT´s starten nicht und ich bekomme den Fehler: Missing 'arch' - internal error at /usr/share/perl5/PVE/LXC.pm line 608.

Gibt es hier für eine Lösung hatte schon arch: amd64 in die Datei geschrieben, nur leider hats nicht geholfen.

wäre für jede erdenkliche Hilfe mehr als dankbar.

Liebe Grüße Patrick
 

Attachments

  • Arch.png
    Arch.png
    203.3 KB · Views: 16
hi,

du hast auch fragezeichen bei den guests und deinem node, kann schon sein dass die container nicht starten weil da etwas anderes schief geht...

schaust du vielleicht bei deinem syslog/journal an, welche meldung(en) du bekommst. journalctl -u 'pve*' -e zeigt dir die errors an.

wie schaut auch deine container config aus? cat /etc/pve/lxc/202.conf bitte posten.
 
hi,

du hast auch fragezeichen bei den guests und deinem node, kann schon sein dass die container nicht starten weil da etwas anderes schief geht...

schaust du vielleicht bei deinem syslog/journal an, welche meldung(en) du bekommst. journalctl -u 'pve*' -e zeigt dir die errors an.

wie schaut auch deine container config aus? cat /etc/pve/lxc/202.conf bitte posten.

Hi, danke für die schnelle Antwort:

hier die Ausgabe von journalctl -u 'pve*' -e
journalctl: option requires an argument -- 'u'

Und hier die Ausgabe von cat /etc/pve/lxc/202.conf
ch: amd64
cores: 3
hostname: IoBroker
memory: 2048
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=BE:6E:2F:8E:4A:BD,ip=dhcp,ip6=dhcp,type=veth
onboot: 1
ostype: ubuntu
parent: Zibgee
rootfs: local-lvm:vm-202-disk-0,size=20G
swap: 1024
lxc.cgroup.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
 
hier die Ausgabe von journalctl -u 'pve*' -e
journalctl: option requires an argument -- 'u'
da hast du falsch kopiert oder? bei mir funktioniert dieses kommando im shell...

Und hier die Ausgabe von cat /etc/pve/lxc/202.conf
ch: amd64
cores: 3
hostname: IoBroker
auch falsch kopiert? hier fehlt das ar von arch :)
 
da hast du falsch kopiert oder? bei mir funktioniert dieses kommando im shell...


auch falsch kopiert? hier fehlt das ar von arch :)
Anscheinend falsch kopiert :-)

So jetzt aber :
hier die Ausgabe von journalctl -u 'pve*' -e:
Oct 18 12:42:11 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:11 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:11 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:42:21 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:22 Home pvedaemon[1124]: <root@pam> starting task UPID:Home:0000139E:00017195:616D6BAE:vzstart:202:root@pam:
Oct 18 12:42:22 Home pvedaemon[5022]: starting CT 202: UPID:Home:0000139E:00017195:616D6BAE:vzstart:202:root@pam:
Oct 18 12:42:22 Home pvedaemon[5022]: missing 'arch' - internal error at /usr/share/perl5/PVE/LXC.pm line 608.
Oct 18 12:42:22 Home pvedaemon[1124]: <root@pam> end task UPID:Home:0000139E:00017195:616D6BAE:vzstart:202:root@pam: missing 'arch' - internal error at /usr/share/perl5/PVE/LXC.pm line 608.
Oct 18 12:42:22 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:22 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:42:31 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:31 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:31 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:42:41 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:41 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:41 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:42:51 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:52 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:42:52 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:00 Home systemd[1]: Starting Proxmox VE replication runner...
Oct 18 12:43:01 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:01 Home systemd[1]: pvesr.service: Succeeded.
Oct 18 12:43:01 Home systemd[1]: Finished Proxmox VE replication runner.
Oct 18 12:43:01 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:01 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:12 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:12 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:12 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:21 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:22 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:22 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:31 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:32 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:32 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:41 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:41 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:41 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:43:51 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:52 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:43:52 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:44:00 Home systemd[1]: Starting Proxmox VE replication runner...
Oct 18 12:44:01 Home systemd[1]: pvesr.service: Succeeded.
Oct 18 12:44:01 Home systemd[1]: Finished Proxmox VE replication runner.
Oct 18 12:44:01 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:44:02 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:44:02 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available
Oct 18 12:44:11 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:44:12 Home pvestatd[1104]: zfs error: cannot open 'eXFest': no such pool
Oct 18 12:44:12 Home pvestatd[1104]: could not activate storage 'eXFest', zfs error: cannot import 'eXFest': no such pool available

Und hier:
root@Home:~# cat /etc/pve/lxc/202.conf
ch: amd64
cores: 3
hostname: IoBroker
memory: 2048
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=BE:6E:2F:8E:4A:BD,ip=dhcp,ip6=dhcp,type=veth
onboot: 1
ostype: ubuntu
parent: Zibgee
rootfs: local-lvm:vm-202-disk-0,size=20G
swap: 1024
lxc.cgroup.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
 
okay anscheinend geht es hier um zwei verschiedene probleme.

1. zfs error: cannot open 'eXFest': no such pool
d.h. du hast eine storage konfiguriert, die nicht mehr existiert (scheint zumindest so aus). schau mal bei deinen VMs ob du das irgendwo noch eingetragen hast.

2. missing 'arch' - internal error at /usr/share/perl5/PVE/LXC.pm line 608.

wenn deine config tatsaechlich so ausschaut:
Code:
root@Home:~# cat /etc/pve/lxc/202.conf
ch: amd64
cores: 3
hostname: IoBroker
...

dann musst du das ch: amd64 zum arch: amd64 wechseln
 
okay anscheinend geht es hier um zwei verschiedene probleme.

1. zfs error: cannot open 'eXFest': no such pool
d.h. du hast eine storage konfiguriert, die nicht mehr existiert (scheint zumindest so aus). schau mal bei deinen VMs ob du das irgendwo noch eingetragen hast.

2. missing 'arch' - internal error at /usr/share/perl5/PVE/LXC.pm line 608.

wenn deine config tatsaechlich so ausschaut:
Code:
root@Home:~# cat /etc/pve/lxc/202.conf
ch: amd64
cores: 3
hostname: IoBroker
...

dann musst du das ch: amd64 zum arch: amd64 wechseln
So das ch: amd64 zum arch: amd64 habe ich nun geändert trotzdem kann ich keinen CT starten.

echt komisch, wie überprüfe ich ob ich noch andere Eintragungen habe?
 
wie überprüfe ich ob ich noch andere Eintragungen habe?
schau einfach im webgui bei deinen VMs ob du irgendwo noch diese "eXFest" storage benutzt.

du kannst auch mit dem kommando grep -Ri exfest /etc/pve schauen ob es bei irgendeiner config steht.

So das ch: amd64 zum arch: amd64 habe ich nun geändert trotzdem kann ich keinen CT starten.
kriegst du eine andere meldung jetzt? oder wieder dieselbe?
 
schau einfach im webgui bei deinen VMs ob du irgendwo noch diese "eXFest" storage benutzt.

du kannst auch mit dem kommando grep -Ri exfest /etc/pve schauen ob es bei irgendeiner config steht.


kriegst du eine andere meldung jetzt? oder wieder dieselbe?
Hier die Ausgabe von grep -Ri exfest /etc/pve:
Code:
root@Home:~# grep -Ri exfest /etc/pve
/etc/pve/storage.cfg:zfspool: eXFest
/etc/pve/storage.cfg:   pool eXFest
/etc/pve/storage.cfg:   mountpoint /eXFest

Bekomme jetzt zumindest keine Meldung mehr was Arch betrifft, das ist schon mal gut.
 
Bekomme jetzt zumindest keine Meldung mehr was Arch betrifft, das ist schon mal gut.
startet der container aber immer noch nicht? siehst du ihn bei der pct list ausgabe?

Hier die Ausgabe von grep -Ri exfest /etc/pve:
okay schaut gut aus, es wird anscheinend nicht benutzt also kannst du das storage schon deaktivieren, somit sollten auch die fragezeichen auf dem GUI weg.
 
startet der container aber immer noch nicht? siehst du ihn bei der pct list ausgabe?


okay schaut gut aus, es wird anscheinend nicht benutzt also kannst du das storage schon deaktivieren, somit sollten auch die fragezeichen auf dem GUI weg.
Code:
root@Home:~# pct list
VMID       Status     Lock         Name
100        stopped                 Grafana
201        stopped                 PiHole
202        stopped                 IoBroker


eXFest hat noch ein Fragezeichen.....

Proxmox.png
 
eXFest hat noch ein Fragezeichen.....
kannst du im /etc/pve/storage.cfg kommentieren, einfach # zeichen vor den zeilen hinzufuegen wo exfest konfiguriert ist.

fuer deine containers bekommst du jetzt andere meldungen (siehe task log unten im GUI). da kann man draufklicken und die meldung anschauen.

uebrigens solltest du auch die lxc.cgroup.devices.allow eintraege in deinen CT configs auch zum lxc.cgroup2.devices.allow wechseln [0] (das ist jetzt seit PVE 7 der fall, wir benutzen default cgroupv2 statt cgroupv1)

[0]: https://pve.proxmox.com/pve-docs/chapter-pct.html#pct_cgroup_compat
 
kannst du im /etc/pve/storage.cfg kommentieren, einfach # zeichen vor den zeilen hinzufuegen wo exfest konfiguriert ist.

fuer deine containers bekommst du jetzt andere meldungen (siehe task log unten im GUI). da kann man draufklicken und die meldung anschauen.

uebrigens solltest du auch die lxc.cgroup.devices.allow eintraege in deinen CT configs auch zum lxc.cgroup2.devices.allow wechseln [0] (das ist jetzt seit PVE 7 der fall, wir benutzen default cgroupv2 statt cgroupv1)

[0]: https://pve.proxmox.com/pve-docs/chapter-pct.html#pct_cgroup_compat
Dies ist die Meldung in der GUI:
Code:
()
run_buffer: 316 Script exited with status 2
lxc_init: 816 Failed to run lxc.hook.pre-start for container "202"
__lxc_start: 2007 Failed to initialize container "202"
TASK ERROR: startup for container '202' failed

Wo genau muss ich die # setzten? Sorry will nicht noch mehr kaputt machen und danke für die Gedult:
Code:
  GNU nano 5.4                                                                         /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

zfspool: eXFest
        pool eXFest
        content rootdir,images
        mountpoint /eXFest
        nodes Home
[ICODE]
 
Code:
zfspool: eXFest
        pool eXFest
        content rootdir,images
        mountpoint /eXFest
        nodes Home
---->
Code:
#zfspool: eXFest
#        pool eXFest
#        content rootdir,images
#        mountpoint /eXFest
#        nodes Home

Dies ist die Meldung in der GUI:
ok, kannst du bitte dein container mit debug option starten lassen: pct start 100 --debug (100 waere dein container ID)

die ausgabe hier posten
 
Code:
zfspool: eXFest
        pool eXFest
        content rootdir,images
        mountpoint /eXFest
        nodes Home
---->
Code:
#zfspool: eXFest
#        pool eXFest
#        content rootdir,images
#        mountpoint /eXFest
#        nodes Home


ok, kannst du bitte dein container mit debug option starten lassen: pct start 100 --debug (100 waere dein container ID)

die ausgabe hier posten
So habe ich es jetzt gändert:
Code:
#zfspool: eXFest

#        pool eXFest

#        content rootdir,images

#        mountpoint /eXFest

#        nodes Home

Ausgabe von pct start 100 --debug:
Code:
 pct start 100 --debug
run_buffer: 316 Script exited with status 2
lxc_init: 816 Failed to run lxc.hook.pre-start for container "100"
__lxc_start: 2007 Failed to initialize container "100"
: type g nsid 0 hostid 100000 range 65536
INFO     lsm - lsm/lsm.c:lsm_init_static:40 - Initialized LSM security driver AppArmor
INFO     conf - conf.c:run_script_argv:332 - Executing script "/usr/share/lxc/hooks/lxc-pve-prestart-hook" for container "100", config section "lxc"
DEBUG    conf - conf.c:run_buffer:305 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: Use of uninitialized value in pattern match (m//) at /usr/share/perl5/PVE/LXC/Setup.pm line 119.
invalid /etc/localtime

ERROR    conf - conf.c:run_buffer:316 - Script exited with status 2
ERROR    start - start.c:lxc_init:816 - Failed to run lxc.hook.pre-start for container "100"
ERROR    start - start.c:__lxc_start:2007 - Failed to initialize container "100"
INFO     conf - conf.c:run_script_argv:332 - Executing script "/usr/share/lxc/hooks/lxc-pve-poststop-hook" for container "100", config section "lxc"
startup for container '100' failed
 
So habe ich es jetzt gändert:
sind fragezeichen dann weg?

Ausgabe von pct start 100 --debug:
danke.
DEBUG conf - conf.c:run_buffer:305 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: Use of uninitialized value in pattern match (m//) at /usr/share/perl5/PVE/LXC/Setup.pm line 119. invalid /etc/localtime
hier der fehler. koennte schon ein bug sein, muessen wir noch anschauen.
 
sind fragezeichen dann weg?


danke.

hier der fehler. koennte schon ein bug sein, muessen wir noch anschauen.
Ja die Fragezeichen sind weg.

Trotzdem bekomme ich die CT´s noch nicht ans laufen.
Ohh eine Bug, gut danke ich warte.
Bin froh wenn es wieder läuft.


Proxmox.png
 
Habe jetzt die cgroups geändert hoffe es ist richtig so:
arch: amd64
cores: 3
hostname: IoBroker
memory: 2048
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=BE:6E:2F:8E:4A:BD,ip=dhcp,ip6=dhcp,type=veth
onboot: 1
ostype: ubuntu
parent: Zibgee
rootfs: local-lvm:vm-202-disk-0,size=20G
swap: 1024
lxc.cgroup2.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
lxc.cgroup2.devices.allow: c 189:* rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup2.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file
lxc.cgroup2.devices.allow: c 189:133 rwm
lxc.mount.entry: /dev/bus/usb/002/004 dev/bus/usb/002/004 none bind,optional,create=file
 
Hallo,
Ausgabe von pct start 100 --debug:
Code:
 pct start 100 --debug
run_buffer: 316 Script exited with status 2
lxc_init: 816 Failed to run lxc.hook.pre-start for container "100"
__lxc_start: 2007 Failed to initialize container "100"
: type g nsid 0 hostid 100000 range 65536
INFO     lsm - lsm/lsm.c:lsm_init_static:40 - Initialized LSM security driver AppArmor
INFO     conf - conf.c:run_script_argv:332 - Executing script "/usr/share/lxc/hooks/lxc-pve-prestart-hook" for container "100", config section "lxc"
DEBUG    conf - conf.c:run_buffer:305 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: Use of uninitialized value in pattern match (m//) at /usr/share/perl5/PVE/LXC/Setup.pm line 119.
invalid /etc/localtime

ERROR    conf - conf.c:run_buffer:316 - Script exited with status 2
ERROR    start - start.c:lxc_init:816 - Failed to run lxc.hook.pre-start for container "100"
ERROR    start - start.c:__lxc_start:2007 - Failed to initialize container "100"
INFO     conf - conf.c:run_script_argv:332 - Executing script "/usr/share/lxc/hooks/lxc-pve-poststop-hook" for container "100", config section "lxc"
startup for container '100' failed
könntest Du mal auf dem Host stat /etc/localtime ausführen und die Ausgabe hier posten?
 
Hallo,

könntest Du mal auf dem Host stat /etc/localtime ausführen und die Ausgabe hier posten?
Hi,

Ausgabe von stat /etc/localtime:

Code:
root@Home:~# stat /etc/localtime
  File: /etc/localtime -> /usr/share/zoneinfo/Region/City
  Size: 31              Blocks: 0          IO Block: 4096   symbolic link
Device: fd01h/64769d    Inode: 1310900     Links: 1
Access: (0777/lrwxrwxrwx)  Uid: (    0/    root)   Gid: (    0/    root)
Access: 2021-10-19 10:18:33.150361024 +0000
Modify: 2021-10-17 19:28:45.559750033 +0000
Change: 2021-10-17 19:28:45.559750033 +0000
 Birth: 2021-10-17 19:28:45.559750033 +0000
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!