Datastore löschen

Hallo, bei mir kommt nach einem
Code:
proxmox-backup-manager datastore remove <name>
Datastore befindet sich im Instandhaltungsmodus.

Was habe ich falsch gemacht??
 
Hey,

naja, kann mehrere Gründe haben. Läuft gerade irgendwas auf dem Datastore(also Backup, Sync- oder Verifyjob)? Was genau für eine Meldung wird angezeigt?
 
Okay, hab nun alles soweit raus (werde das auch später posten)
Jedoch beim hinzuüfen des Pools wird er nicht direkt bei PBS hinzugefügt.

Hat da jemand ne Idee?
zpool create -f -o ashift=12 DE-BackEx01 raidz sda sdb sdc sdd sde sdf sdg --> ZFS pool ist da aber kein Datastore

Bei PVE haben wir noch folgenden Befehl:
pvesm add zfspool datastore --pool POOLNAME

Allerdings gibts bei pbs den Befehl pvesm nicht....
 
zpool create -f -o ashift=12 DE-BackEx01 raidz sda sdb sdc sdd sde sdf sdg

Bist du sicher, dass du das so machen willst? Sind das wenigstens "Enterprise SSDs"? Das ist gruselig!

("ashift=12" könnte möglicherweise noch dazu fatal sein; ich kann das aber nicht "mal eben" erklären.)
 
  • Like
Reactions: Johannes S
Kommt ein bisschen darauf an. lsblk -o+FSTYPE,MODEL kann helfen etwas vorzuschlagen. Ich denke Udo's Sorge ist hier hauptsächlich die geringe Redundanz.
 
Hallo,

es handelt sich dabei um HDDs...
Das aShift sollte da nicht rein!
Kurz zum Szenario:

Wir haben einen externen Backupserver, der sich von 8 anderen Backupservern die Daten zieht.
Dabei handelt es sich um ca. 100TB Gesamtdaten.
Wir möchten auf dem Server nur einen Stand vorhalten, als letzte Sicherheit.

Soweit hat das alles geklappt, allerdings hat die Garbage Collection mehrere Tage bis Wochen gedauert und das war so nicht mehr händelbar.
Daher haben wir nun 2 Datastores angelegt, auf einen wird von den 8 Backupservern gepullt.

Vom einen Datastore wird intern auf einen anderen gepusht und dann der 1. Datastore gelöscht und neu angelegt.
Damit umgehen wir die GC.

Dies passiert dann immer am Wochenende!

Anbei dei Scripts, welche per Cronjob laufen.

Code:
cp /etc/proxmox-backup/sync.cfg /root/sync.cfg
proxmox-backup-manager datastore remove DATASTORE1_NAME
zpool destroy DATASTORE1_NAME
rm -r /mnt/datastore/DATASTORE1_NAME
wipefs "--all" "/dev/sda9" "/dev/sda1" "/dev/sda"
wipefs "--all" "/dev/sdb9" "/dev/sdb1" "/dev/sdb"
wipefs "--all" "/dev/sdc9" "/dev/sdc1" "/dev/sdc"
wipefs "--all" "/dev/sdd9" "/dev/sdd1" "/dev/sdd"
wipefs "--all" "/dev/sde9" "/dev/sde1" "/dev/sde"
wipefs "--all" "/dev/sdf9" "/dev/sdf1" "/dev/sdf"
wipefs "--all" "/dev/sdg9" "/dev/sdg1" "/dev/sdg"
zpool create -f DATASTORE1_NAME raidz sda sdb sdc sdd sde sdf sdg -m /mnt/datastore/DATASTORE1_NAME
proxmox-backup-manager datastore create DATASTORE1_NAME /mnt/datastore/DATASTORE1_NAME
cp /root/sync.cfg /etc/proxmox-backup/sync.cfg
rm -r /root/sync.cfg

Er kopiert vorab die sync.cfg weg, da beim löschen des Datastores auch die Sync Jobs verschwinden.
Dann löscht er den Datastore, zerstört ihn und löscht auch den mountpoint.
Danach werden die Platten gewipt und der pool neu angelegt.
Am Ende wird dann noch die Sync.cfg zurück kopiert, läuft...
 
Nichts für ungut, aber warum habt ihr keine SSDs als special device mirror im Pool? Das würde die garbage-collection deutlich beschleunigen. Und wenn ich das richtig sehe habt ihr zwei RAIDZ-Pools, die jeweils die gleichen 100 TB enthalten. Habt ihr diskutiert, dass auf striped mirrors ( entspricht RAID10 ) umzustellen? Zugebenermaßen wäre das Ausfallrisiko größer, aber auch die IOPS-Rate.
 
  • Like
Reactions: UdoB
Hi,

damit hab ich mich noch nicht beschäftigt...wie legt man denn so ne Pool an?
Also HDD/SSD?

Ja, RAID10 könnte man machen ist aber in dem Fall für das was wir es brauchen nicht nötig.
Wir syncen nur einmal die Woche, da muss eh fast alle 100TB rüber...daher eher "Sinnlos"
 
Entweder zwei RaidZ2 vdev oder mehrere Mirror vdev (Raid10) macht schon mal bessere Performance und bevor Daten drauf kopiert werden, zwei schnelle SSDs als Special Mirror hinzufügen. Damit werden HDDs plötzlich benutzbar. ;)
 
  • Like
Reactions: Johannes S