It seems the problem is a lxc container with a mount point which is causing the problems. Attached is the debug log from starting the container like this: lxc-start -n 103 -F -lDEBUG -o /tmp/103.log
On Proxmox Backup Server with an S3-backed datastore, the command
proxmox-backup-manager datastore s3-refresh <store>
consistently crashes with a Rust panic:
thread 'main' panicked at src/bin/proxmox_backup_manager/datastore.rs:343:14:
internal...
Nearly ten years. Wow!
I just asked this (https://forum.proxmox.com/threads/zfs-replication-with-two-nodes-and-different-pool-names.178638/#post-828572) and can't believe this is true and more so after all of these reports and ten years.
First...
Hello,
I have the same issue and the fix proposed by @Carizoeuf partially solved my issue:
I don't have the grub prompt but I am able to boot on proxmox by using the "rescue boot" via the installation iso
Then I pass both command...
Same here, one of MS-01 gets segfault on pvestatd. This one had a newer experimental kernel installed, and now on default 6.8.12-17 kernel from proxmox 8.4.16.
All units on same kernel.
nimm doch einfach ein hook-script da kannst Du sagen das er wenn das Backup zu Ende ist er den Rechner runterfahren soll
#!/bin/bash
#set -e;
#set -x;
# fstrim vor backup
if [ "$1" == 'pre-start' ]; then
/usr/sbin/qm guest exec "$3" --...
Ich kenne mich aus sonst würde ich es nicht anbieten. Ich hab mit proxmox noch nie gearbeitet und jede anwendung ist da anderst. ich arbeite mich derzeit ein und versuche proxmox kennen zu lernen bevor ich da irgendwie meine systeme migriere...
In addition: might I not have to change /etc/pve# cat /etc/pve/qemu-server/100.conf? It seems to hold config data for my VM and the lvresize of course hasn't updated this. When I increased the size of an LV via the GUI, it was of course updated...
Hello,
Now that PBS' S3 support has been around for a while and people have been using it (and the dev team has been putting so much effort into continuously refining it), I'm curious: for someone who's new to S3-based storage solutions, when is...
Hmm, that wasn't the case. It was still reported 800G and another one was 300G. Eek! Something went horribly wrong?
SystemRescue now says /dev/sdd1 is 299.99GiB of which 25.72 GiB is used (that is correct after having resized it with Gparted...
Old Thread but I'll add my 0.02$ just in case you are still looking for a Solution.
In my Case, this can happen (mostly on a Backup Server) if I sent there a ZFS Snapshot WITHOUT specifying a -o mountpoint=/zdata/BACKUP/<HOST> Parameter when...
I tried some more with a friend, checked if IP settings are set to DHCP at all, they're both on static, and only IPv4 is configured, and using a single interface.
The specific RockyLinux 10 template i use is...
Ohne einen PBS machst du "vzdump"-basierte Backups, richtig? Jedes Backup ist ein Vollbackup und belegt jeweils (in etwa) den gleichen Platz, richtig?
Mit PBS macht man ebenfalls jedesmal "logisch" ein Vollbackup, es werden aber nur neue...
Es kommt auch darauf an, wie groß die VZDumps und wie oft du Backups macht.
Ich habe auf meiner "alten" Synology 923+ PBS in einer VM installiert. NFS.
Da ich halt sehr viel ausgemountet habe, also zB die Dokumente für Paperless speichere ich...
Bei mir läuft der PBS auch auf einer NAS und das funktioniert super. Jedenfalls für den privaten Heimgebrauch. Ich hätte zwar inzwischen lieber einen seperaten PBS Server wo nichts anderes läuft, aber da habe ich aktuell noch keine Hardware für...
Bei mir läuft der PBS auch auf einer NAS und das funktioniert super. Jedenfalls für den privaten Heimgebrauch. Ich hätte zwar inzwischen lieber einen seperaten PBS Server wo nichts anderes läuft, aber da habe ich aktuell noch keine Hardware für...