Upgrade 6.4 -> 7

pixel24

Active Member
Dec 11, 2019
104
2
38
45
Hallo zusammen,

ich habe ein recht simples Setup. Single-PVE mit 8 VM's (Linux & Windows) und LVM als Storage. Ich lese gerade den entsprechenden WIKI-Artikel:

https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0

Ein Backup der VM's habe ich erstellt.


Dort steht ich muss VM's die während des Updates laufen sollen zuvor auf einen anderen Knoten migrieren. Nun einen zweiten Knoten habe ich keinen und die VM mit pfSense muss ja während des Updates laufen da diese die Internetverbindung bereitstellt. Oder kann ich diese laufen lassen?

Das Skript zum prüfen vor dem Update gibt mir folgendes aus:

Code:
root@vmhost01:~# pve6to7 --full
= CHECKING VERSION INFORMATION FOR PVE PACKAGES =

Checking for package updates..
PASS: all packages uptodate

Checking proxmox-ve package version..
PASS: proxmox-ve package has version >= 6.4-1

Checking running kernel version..
PASS: expected running kernel '5.4.140-1-pve'.

= CHECKING CLUSTER HEALTH/SETTINGS =

SKIP: standalone node.

= CHECKING HYPER-CONVERGED CEPH STATUS =

SKIP: no hyper-converged ceph setup detected!

= CHECKING CONFIGURED STORAGES =

PASS: storage 'backup01' enabled and active.
PASS: storage 'local' enabled and active.
PASS: storage 'local-lvm' enabled and active.

= MISCELLANEOUS CHECKS =

INFO: Checking common daemon services..
PASS: systemd unit 'pveproxy.service' is in state 'active'
PASS: systemd unit 'pvedaemon.service' is in state 'active'
PASS: systemd unit 'pvestatd.service' is in state 'active'
INFO: Checking for running guests..
WARN: 6 running guest(s) detected - consider migrating or stopping them.
INFO: Checking if the local node's hostname 'vmhost01' is resolvable..
INFO: Checking if resolved IP is configured on local node..
PASS: Resolved node IP '192.168.24.1' configured and active on single interface.
INFO: Checking backup retention settings..
INFO: storage 'local' - no backup retention settings defined - by default, PVE 7.x will no longer keep only the last backup, but all backups
WARN: storage 'backup01' - parameter 'maxfiles' is deprecated with PVE 7.x and will be removed in a future version, use 'prune-backups' instead.
INFO: checking CIFS credential location..
PASS: no CIFS credentials at outdated location found.
INFO: Checking custom roles for pool permissions..
INFO: Checking node and guest description/note legnth..
PASS: All node config descriptions fit in the new limit of 64 KiB
PASS: All guest config descriptions fit in the new limit of 8 KiB
INFO: Checking container configs for deprecated lxc.cgroup entries
PASS: No legacy 'lxc.cgroup' keys found.
INFO: Checking storage content type configuration..
PASS: no problems found
INFO: Checking if the suite for the Debian security repository is correct..
INFO: Make sure to change the suite of the Debian security repository from 'buster/updates' to 'bullseye-security' - in /etc/apt/sources.list:9
SKIP: No containers on node detected.

= SUMMARY =

TOTAL:    20
PASSED:   15
SKIPPED:  3
WARNINGS: 2
FAILURES: 0

ATTENTION: Please check the output for detailed information!

Hier wird ja auch ausgegeben dass VM's laufen. Der Storage "backup01" ist eine USB-Platte auf welche jede Nacht Vollsicherungen der VM's (werden vorher gestoppt) erstellt werden. Hierzu wird durch das Skript hingewiesen dass der Parameter maxfiles deprecated ist und ich hier einen neuen verwenden muss. Das sollte für das Upgrade nicht relevant sein, oder?

Ich habe PVE ganz normal installiert un die Datei /etc/network/interfaces sieht so aus:

Code:
auto lo
iface lo inet loopback

iface eno0 inet manual

iface enp96s0f1 inet manual

iface ens1f0 inet manual

auto ens1f1
iface ens1f1 inet manual

auto vmbr0
iface vmbr0 inet static
        address  192.168.24.1
        netmask  255.255.255.0
        gateway  192.168.24.254
        bridge-ports ens1f1
        bridge-stp off
        bridge-fd 0

auto vmbr1
iface vmbr1 inet manual
        bridge-ports enp96s0f1
        bridge-stp off
        bridge-fd 0

vmbr0 hängt/zeigt ins LAN. vmbr1 ins WAN (zum Glasfaser-Medienkonverter)

Code:
root@vmhost01:/etc/network# brctl show
bridge name    bridge id        STP enabled    interfaces
fwbr103i0        8000.86ed24d7ab91    no        fwln103i0
                            tap103i0
vmbr0        8000.a0369f4c3bee    no        ens1f1
                            fwpr103p0
                            tap100i0
                            tap101i0
                            tap102i0
                            tap104i0
                            tap104i1
                            tap108i0
vmbr1        8000.0025905eb00f    no        enp96s0f1
vmbr1v7        8000.0025905eb00f    no        enp96s0f1.7
                            tap100i1

Verstehe ich es richtig dass ich jetzt in der /etc/network/interfaces bei vmbr0 und vmbr1 einfach den Parameter "hwaddress" nutze und sie auf die MAC-Adresse setze die sie aktuell haben?

Beste Grüße
pixel24
 
Hallo zusammen,

ich habe ein recht simples Setup. Single-PVE mit 8 VM's (Linux & Windows) und LVM als Storage. Ich lese gerade den entsprechenden WIKI-Artikel:

https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0

Ein Backup der VM's habe ich erstellt.


Dort steht ich muss VM's die während des Updates laufen sollen zuvor auf einen anderen Knoten migrieren. Nun einen zweiten Knoten habe ich keinen und die VM mit pfSense muss ja während des Updates laufen da diese die Internetverbindung bereitstellt. Oder kann ich diese laufen lassen?

Das Skript zum prüfen vor dem Update gibt mir folgendes aus:

Code:
root@vmhost01:~# pve6to7 --full
= CHECKING VERSION INFORMATION FOR PVE PACKAGES =

Checking for package updates..
PASS: all packages uptodate

Checking proxmox-ve package version..
PASS: proxmox-ve package has version >= 6.4-1

Checking running kernel version..
PASS: expected running kernel '5.4.140-1-pve'.

= CHECKING CLUSTER HEALTH/SETTINGS =

SKIP: standalone node.

= CHECKING HYPER-CONVERGED CEPH STATUS =

SKIP: no hyper-converged ceph setup detected!

= CHECKING CONFIGURED STORAGES =

PASS: storage 'backup01' enabled and active.
PASS: storage 'local' enabled and active.
PASS: storage 'local-lvm' enabled and active.

= MISCELLANEOUS CHECKS =

INFO: Checking common daemon services..
PASS: systemd unit 'pveproxy.service' is in state 'active'
PASS: systemd unit 'pvedaemon.service' is in state 'active'
PASS: systemd unit 'pvestatd.service' is in state 'active'
INFO: Checking for running guests..
WARN: 6 running guest(s) detected - consider migrating or stopping them.
INFO: Checking if the local node's hostname 'vmhost01' is resolvable..
INFO: Checking if resolved IP is configured on local node..
PASS: Resolved node IP '192.168.24.1' configured and active on single interface.
INFO: Checking backup retention settings..
INFO: storage 'local' - no backup retention settings defined - by default, PVE 7.x will no longer keep only the last backup, but all backups
WARN: storage 'backup01' - parameter 'maxfiles' is deprecated with PVE 7.x and will be removed in a future version, use 'prune-backups' instead.
INFO: checking CIFS credential location..
PASS: no CIFS credentials at outdated location found.
INFO: Checking custom roles for pool permissions..
INFO: Checking node and guest description/note legnth..
PASS: All node config descriptions fit in the new limit of 64 KiB
PASS: All guest config descriptions fit in the new limit of 8 KiB
INFO: Checking container configs for deprecated lxc.cgroup entries
PASS: No legacy 'lxc.cgroup' keys found.
INFO: Checking storage content type configuration..
PASS: no problems found
INFO: Checking if the suite for the Debian security repository is correct..
INFO: Make sure to change the suite of the Debian security repository from 'buster/updates' to 'bullseye-security' - in /etc/apt/sources.list:9
SKIP: No containers on node detected.

= SUMMARY =

TOTAL:    20
PASSED:   15
SKIPPED:  3
WARNINGS: 2
FAILURES: 0

ATTENTION: Please check the output for detailed information!

Hier wird ja auch ausgegeben dass VM's laufen. Der Storage "backup01" ist eine USB-Platte auf welche jede Nacht Vollsicherungen der VM's (werden vorher gestoppt) erstellt werden. Hierzu wird durch das Skript hingewiesen dass der Parameter maxfiles deprecated ist und ich hier einen neuen verwenden muss. Das sollte für das Upgrade nicht relevant sein, oder?

Ich habe PVE ganz normal installiert un die Datei /etc/network/interfaces sieht so aus:

Code:
auto lo
iface lo inet loopback

iface eno0 inet manual

iface enp96s0f1 inet manual

iface ens1f0 inet manual

auto ens1f1
iface ens1f1 inet manual

auto vmbr0
iface vmbr0 inet static
        address  192.168.24.1
        netmask  255.255.255.0
        gateway  192.168.24.254
        bridge-ports ens1f1
        bridge-stp off
        bridge-fd 0

auto vmbr1
iface vmbr1 inet manual
        bridge-ports enp96s0f1
        bridge-stp off
        bridge-fd 0

vmbr0 hängt/zeigt ins LAN. vmbr1 ins WAN (zum Glasfaser-Medienkonverter)

Code:
root@vmhost01:/etc/network# brctl show
bridge name    bridge id        STP enabled    interfaces
fwbr103i0        8000.86ed24d7ab91    no        fwln103i0
                            tap103i0
vmbr0        8000.a0369f4c3bee    no        ens1f1
                            fwpr103p0
                            tap100i0
                            tap101i0
                            tap102i0
                            tap104i0
                            tap104i1
                            tap108i0
vmbr1        8000.0025905eb00f    no        enp96s0f1
vmbr1v7        8000.0025905eb00f    no        enp96s0f1.7
                            tap100i1

Verstehe ich es richtig dass ich jetzt in der /etc/network/interfaces bei vmbr0 und vmbr1 einfach den Parameter "hwaddress" nutze und sie auf die MAC-Adresse setze die sie aktuell haben?

Beste Grüße
pixel24

Hallo @pixel24 ,

konntest du Antworten auf deine Fragen finden bzw. das Upgrade erfolgreich durchführen?
Ich habe ein sehr ähnliches Setup und würde das Upgrade nun ebenfalls gern angehen....

Viele Grüße
 

About

The Proxmox community has been around for many years and offers help and support for Proxmox VE, Proxmox Backup Server, and Proxmox Mail Gateway.
We think our community is one of the best thanks to people like you!

Get your subscription!

The Proxmox team works very hard to make sure you are running the best software and getting stable updates and security enhancements, as well as quick enterprise support. Tens of thousands of happy customers have a Proxmox subscription. Get yours easily in our online shop.

Buy now!