Vollkommen lost: Container mit der Nextcloud startet nicht

Dittsche

New Member
Aug 25, 2021
7
0
1
46
Hallo an alle,

unabhängig von dem was ich an der Maschine gemacht hatte, ging auf einmal die Nextcloud nicht mehr. Bei näherem Hinsehen in Proxmox habe ich festgestellt, dass der Container nicht lief und auch nicht zum Starten bewegt werden konnte.

Ich bin komplett lost, weil ich nicht weiß, wie das dazu kommt. Ich hatte nichts an der Maschine gemacht.

Hier sind ein paar Auszüge, wobei ich nicht weiß, was man zur Analyse meines Problems braucht:

Code:
root@cloud:~# journalctl -xe
-- The job identifier is 1855.
Aug 25 18:06:00 cloud systemd[1]: Starting Proxmox VE replication runner...
-- Subject: A start job for unit pvesr.service has begun execution
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- A start job for unit pvesr.service has begun execution.
--
-- The job identifier is 1859.
Aug 25 18:06:01 cloud systemd[1]: pvesr.service: Succeeded.
-- Subject: Unit succeeded
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- The unit pvesr.service has successfully entered the 'dead' state.
Aug 25 18:06:01 cloud systemd[1]: Started Proxmox VE replication runner.
-- Subject: A start job for unit pvesr.service has finished successfully
-- Defined-By: systemd
-- Support: https://www.debian.org/support
--
-- A start job for unit pvesr.service has finished successfully.
--
-- The job identifier is 1859.

Code:
root@cloud:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                YyUq08-J14b-GEhh-7Vim-YJ2s-Kbuw-4cSHkM
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-11-20 11:31:44 +0100
  LV Status              available
  # open                 2
  LV Size                7.00 GiB
  Current LE             1792
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0
  
  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                NYX2Qj-5PRQ-HHsu-H5NA-RIP9-EtoN-dCrPOZ
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-11-20 11:31:44 +0100
  LV Status              available
  # open                 1
  LV Size                29.50 GiB
  Current LE             7552
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1
  
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                AqErbD-JvL4-heoO-QWp7-Fl6j-OBzG-VPQRRd
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-11-20 11:31:44 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                <65.49 GiB
  Allocated pool data    0.00%
  Allocated metadata     1.60%
  Current LE             16765
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4
 
Hast du vielleicht einen bind-mount der nicht mehr verfügbar ist? Z.B. Nextcloud Datenverzeichnis extern ausgelagert oder so?
 
was ist denn das output von `pct start <VMID>` (<VMID> durch die id des next-cloud containers ersetzen?
Wenn das einen Fehler wirft wären noch die debug-logs von interesse:
https://pve.proxmox.com/pve-docs/chapter-pct.html#_obtaining_debugging_logs


welche versionen der PVE-pakete sind denn installiert:
`pveversion -v`

Danke erstmal für die Unterstützung.

Also hier sind die Outputs:

Code:
root@cloud:~# pct start 100
run_buffer: 314 Script exited with status 1
lxc_init: 798 Failed to run lxc.hook.pre-start for container "100"
__lxc_start: 1945 Failed to initialize container "100"
startup for container '100' failed

Code:
root@cloud:~# pveversion -v
proxmox-ve: 6.4-1 (running kernel: 5.4.128-1-pve)
pve-manager: 6.4-13 (running version: 6.4-13/9f411e79)
pve-kernel-5.4: 6.4-5
pve-kernel-helper: 6.4-5
pve-kernel-5.4.128-1-pve: 5.4.128-2
pve-kernel-5.4.106-1-pve: 5.4.106-1
pve-kernel-5.4.98-1-pve: 5.4.98-1
pve-kernel-5.4.78-2-pve: 5.4.78-2
pve-kernel-5.4.78-1-pve: 5.4.78-1
pve-kernel-5.4.73-1-pve: 5.4.73-1
pve-kernel-5.4.34-1-pve: 5.4.34-2
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.1.2-pve1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
ksm-control-daemon: 1.3-1
libjs-extjs: 6.0.1-10
libknet1: 1.20-pve1
libproxmox-acme-perl: 1.1.0
libproxmox-backup-qemu0: 1.1.0-1
libpve-access-control: 6.4-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.4-3
libpve-guest-common-perl: 3.1-5
libpve-http-server-perl: 3.2-3
libpve-storage-perl: 6.4-1
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.6-2
lxcfs: 4.0.6-pve1
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.1.13-2
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.6-1
pve-cluster: 6.4-1
pve-container: 3.3-6
pve-docs: 6.4-2
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-4
pve-firmware: 3.2-4
pve-ha-manager: 3.1-1
pve-i18n: 2.3-1
pve-qemu-kvm: 5.2.0-6
pve-xtermjs: 4.7.0-3
qemu-server: 6.4-2
smartmontools: 7.2-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 2.0.5-pve1~bpo10+1

Code:
root@cloud:~# pct start 100 --debug
run_buffer: 314 Script exited with status 1
lxc_init: 798 Failed to run lxc.hook.pre-start for container "100"
__lxc_start: 1945 Failed to initialize container "100"
: type g nsid 0 hostid 100000 range 65536
INFO     lsm - lsm/lsm.c:lsm_init:40 - Initialized LSM security driver AppArmor
INFO     conf - conf.c:run_script_argv:331 - Executing script "/usr/share/lxc/hooks/lxc-pve-prestart-hook" for container "100", config section "lxc"
DEBUG    conf - conf.c:run_buffer:303 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: unable to open file '/fastboot.tmp.9872' - Disk quota exceeded

DEBUG    conf - conf.c:run_buffer:303 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: error in setup task PVE::LXC::Setup::pre_start_hook

ERROR    conf - conf.c:run_buffer:314 - Script exited with status 1
ERROR    start - start.c:lxc_init:798 - Failed to run lxc.hook.pre-start for container "100"
ERROR    start - start.c:__lxc_start:1945 - Failed to initialize container "100"
INFO     conf - conf.c:run_script_argv:331 - Executing script "/usr/share/lxcfs/lxc.reboot.hook" for container "100", config section "lxc"
startup for container '100' failed
 
Hast du vielleicht einen bind-mount der nicht mehr verfügbar ist? Z.B. Nextcloud Datenverzeichnis extern ausgelagert oder so?

Ich bin mir nicht sicher, was ein bind-mount ist.

Bei mir läuft Proxmox auf einer SSD. Die Nextcloud liegt auf zwei Platten als RAID1.
 
DEBUG conf - conf.c:run_buffer:303 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 100 lxc pre-start produced output: unable to open file '/fastboot.tmp.9872' - Disk quota exceeded
Klingt für mich als wenn dein LXC einfach vollgeschrieben ist. Quota ist erreicht also darf nichts neues mehr geschrieben werden. Ohne etwas zu schreiben kann der LXC nicht booten. Da solltest du also versuchen das Quota zu erhöhen (sofern es dein physischer Speicherplatz noch zulässt) und dann immer schön den verfügbaren Speicherplatz monitoren damit es garnicht erst wieder dazu kommt, dass da eine Platte zu 100% vollläuft.
Ich bin mir nicht sicher, was ein bind-mount ist.

Bei mir läuft Proxmox auf einer SSD. Die Nextcloud liegt auf zwei Platten als RAID1.
Per bind-mounts kannst du Ordner vom Host in den Gast durchreichen.
 
Klingt für mich als wenn dein LXC einfach vollgeschrieben ist. Quota ist erreicht also darf nichts neues mehr geschrieben werden. Ohne etwas zu schreiben kann der LXC nicht booten. Da solltest du also versuchen das Quota zu erhöhen (sofern es dein physischer Speicherplatz noch zulässt) und dann immer schön den verfügbaren Speicherplatz monitoren damit es garnicht erst wieder dazu kommt, dass da eine Platte zu 100% vollläuft.

Per bind-mounts kannst du Ordner vom Host in den Gast durchreichen.

Wie kann ich denn die Quota prüfen?
 
Wie kann ich denn die Quota prüfen?
Was läuft denn darunter als storage? LVM? ZFS?

Bei ZFS kannst du das quota z.B. mit zfs get quota DeinPool/DeinDataset abfragen oder mit zfs set quota=12345G DeinPool/DeinDataset ein neues quota setzen.
 
Was läuft denn darunter als storage? LVM? ZFS?

Bei ZFS kannst du das quota z.B. mit zfs get quota DeinPool/DeinDataset abfragen oder mit zfs set quota=12345G DeinPool/DeinDataset ein neues quota setzen.

Also, bei mir läuft ZFS. Ich habe den Befehl im Terminal eingegeben und kriege als Value "none". Muss ich da trotzdem was setzen?
 
Ich habe mich dazu entschlossen den eigenen Server abzuschalten und setze nun managed System im Netz ein.
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!