merci @pakuzaz
:rolleyes: hmm, also wie soll das Datacenter wissen das im Node4 ein Zpool Raid10 ist?
ein Add ZFS zeigt mir nur rpool an wobei ich das rpool auf 3 nodes habe
@smasty Danke für die Antwort - ja das scheint zu fehlen
https://pve.proxmox.com/wiki/Package_Repositories
hier der richtige Eintrag, komisch das es nicht per default eingetragen ist
deb http://download.proxmox.com/debian/pve buster pve-no-subscription
eine Art Tutorial - hoffe es war nicht falsch
Annahmen:
Die zu partionierende Disk ist: /dev/sda/
Der Pool ist: rpool
Bei jedem Print sollen die neuen Infos erscheinen:
apt install -y parted
parted /dev/sda
mklabel gpt
print
mkpart primary 0% 50%
print
mkpart primary 51% 100%
print
name 1...
Hallo
ich habe mein neuer Node in den PVE-cluster eingefügt.
jetzt ist mir aufgefallen das unter Storage, nur ein Pool angezeigt wird und zwar den default rpool mit 3TB aber ich habe noch ein Raid10 Pool mit 6TB,
den aber kann ich nicht finden unter Storage.
Der Unterschied der rpool wurde...
Hallo
hab einen neuen Node aufgesetzt mit neuem/aktuellem ISO und allen update
8 x Intel(R) Xeon(R) CPU E3-1230 v5 @ 3.40GHz (1 Socket)
proxmox-ve: 6.2-1 (running kernel: 5.4.34-1-pve)
pve-manager: 6.2-4 (running version: 6.2-4/9824574a)
pve-kernel-5.4: 6.2-1
und einem "alten" bestehenden Node...
OK, Fehler gefunden, Layer 8 Fehler! Peinlich es zu schreiben, beim Aufsetzen des neuen Node habe ich eine Switch Verbindung ins DMZ getrennt, eh ja, dann vergessen es wieder einzustecken auf dem Switch :oops: :rolleyes:
Hallo
unter
https://pve.proxmox.com/wiki/ZFS_on_Linux
Add cache and log to an existing pool
das habe ich nicht verstanden, vorallem nicht wegen dem partion erstellen.
ich habe eine SSD Disk
/dev/sda 128GB wobei nur 119.24GiB angezeigt wird im PVE Gui
rpool ist der Pool zum hinzufügen
also wäre...
Ich logge in via 10.18.14.43
und pinge dann 10.147.42.63
es scheint mir das es nicht über den Port eno1 hinausgeht
12 auto lo
13 iface lo inet loopback
14
15 auto eno1
16 iface eno1 inet manual
17
18 auto eno2
19 iface eno2 inet manual
20
21 auto vmbr0
22 iface vmbr0 inet static
23...
Hallo
bei der Grundinstallation von Proxmox und dem erstellen eines ersten zfs Pool, sehen die Disk erkennung wie folgt aus.
rpool
mirror-0
ata-TOSHIBA_HDWA130_Y6AH28XAS-part3
ata-TOSHIBA_HDWA130_Y6AE7YGAS-part3
Die nachträglich erstellen haben dann "nur" noch die Bezeichnung sdg, sdd...
maybe you Disk failed
[megaraid_disk_04], SMART Failure: DATA CHANNEL IMPENDING FAILURE GENERAL HARD DRIVE FAILURE
and the other Disk have to be working harder - but still i think the temperature is to high and cooling is not working in the server
hallo
ich habe mir einen neuen Node aufgesetzt. kann den via ssh oder Terminal erreichen. Alle updates funktionieren und ist auf dem neusten Stand.
Ich habe darauf Munin-Node installiert und müsste mich mit dem Munin-Server verbinden der in der gleichen IP-Range ist.
Diese konstellation habe ich...
zpool import -f freenas-boot
worked and now the pool is there in the GUI
and now destroy it for a new use in pve
this will clear the Disk - after they will be visible to Proxmox Gui
fdisk /dev/sdf
fdisk /dev/sdb
# zpool import
pool: NAS-04vol
id: 10910952516968627858
state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
see: http://zfsonlinux.org/msg/ZFS-8000-EY
config:
NAS-04vol...
@bobmc i could not find zpool import option in the GUI!
zpool status shows only on rpool
and
# zpool labelclear /dev/sda
failed to clear label for /dev/sda
This site uses cookies to help personalise content, tailor your experience and to keep you logged in if you register.
By continuing to use this site, you are consenting to our use of cookies.