bad checksum in space map bitmap

okay also voll duerfte er nicht sein (ist ja auch eine gaengige quelle von corruption/problemen bei LVM thin). wie gesagt, ich wuerde als erstes eine 1:1 kopie von den platten machen (z.b. mit dd oder ddrescue), damit du destruktive reparaturen guten gewissens ausprobieren kannst. danach wuerde ich als erstes mal das swap LV loeschen, damit hast du hoffentlich genug freien platz in der VG um das repair kommando durchlaufen zu lassen. smart werte anschauen oder nen smart test machen hilft vielleicht bei der einschaetzung ob die platte selbst defekt ist - wuerde ich aber auch erst NACH dem ziehen eines backups der gesamten platte machen.
Also wie schon geschrieben, habe ich die SSD geprüft und die ist i.O. (smart werte sehen gut aus)
Swap ist auch schon gelöscht um Platz zu haben daher auch die Fehlermeldung beim Booten (siehe Screenshot)

253:4 ist pve-data (der lvconvert --repair) läuft hier augenscheinlich problemlos durch

Ich habe nun noch einmal folgendes gemacht.

  1. lvchange -an pve/data
  2. lvscan
  3. Code:
      ACTIVE            '/dev/pve/root' [96.00 GiB] inherit
      inactive          '/dev/pve/data' [1.67 TiB] inherit
      inactive          '/dev/pve/vm-307-disk-0' [50.00 GiB] inherit
      inactive          '/dev/pve/vm-304-disk-0' [100.00 GiB] inherit
      inactive          '/dev/pve/vm-301-disk-0' [100.00 GiB] inherit
      inactive          '/dev/pve/vm-300-disk-0' [100.00 GiB] inherit
      inactive          '/dev/pve/vm-302-disk-0' [100.00 GiB] inherit
      inactive          '/dev/pve/vm-303-disk-0' [155.00 GiB] inherit
      inactive          '/dev/pve/vm-309-disk-1' [4.00 MiB] inherit
      inactive          '/dev/pve/vm-303-disk-1' [50.00 GiB] inherit
      inactive          '/dev/pve/vm-100-disk-0' [16.00 GiB] inherit

  4. lvconvert --repair pve/data -v --force
  5. Code:
      activation/volume_list configuration setting not defined: Checking only host tags for pve/lvol35_pmspare.
      Creating pve-lvol35_pmspare
      Loading table for pve-lvol35_pmspare (253:1).
      Resuming pve-lvol35_pmspare (253:1).
      activation/volume_list configuration setting not defined: Checking only host tags for pve/data_tmeta.
      Creating pve-data_tmeta
      Loading table for pve-data_tmeta (253:2).
      Resuming pve-data_tmeta (253:2).
      Executing: /usr/sbin/thin_repair  -i /dev/mapper/pve-data_tmeta -o /dev/mapper/pve-lvol35_pmspare
      Piping: /usr/sbin/thin_dump /dev/mapper/pve-lvol35_pmspare
      Transaction id 165 from pool "pve/data" does not match repaired transaction id 164 from /dev/mapper/pve-lvol35_pmspare.
      Removing pve-data_tmeta (253:2)
      Removing pve-lvol35_pmspare (253:1)
      Preparing pool metadata spare volume for Volume group pve.
      Archiving volume group "pve" metadata (seqno 455).
      Creating logical volume lvol36
      Creating volume group backup "/etc/lvm/backup/pve" (seqno 456).
      Activating logical volume pve/lvol36.
      activation/volume_list configuration setting not defined: Checking only host tags for pve/lvol36.
      Creating pve-lvol36
      Loading table for pve-lvol36 (253:1).
      Resuming pve-lvol36 (253:1).
      Initializing 15.81 GiB of logical volume pve/lvol36 with value 0.
      Temporary logical volume "lvol36" created.
      Removing pve-lvol36 (253:1)
      Renaming lvol36 as pool metadata spare volume lvol36_pmspare.
      WARNING: LV pve/data_meta0 holds a backup of the unrepaired metadata. Use lvremove when no longer required.

Tja ich sehe da keine Fehler , und bin von daher ratlos wie ich hier weitermachen soll :oops::rolleyes:


Grüße
eure Foxi
 
die fehlermeldung beim booten kriegst du auf jeden fall weg in dem du den eintrag aus /etc/fstab entfernst. wenn das entfernen des thin pools weiterhin nicht funktioniert (auch nicht durch entfernen der tmeta/tdata LVs - eventuell auch hier mit --verbose und --force und etwaige meldungen hier posten), dann bleibt wohl nur mehr ein backup von wichtigen configs und /etc/pve machen, und neuinstallieren.
 
die fehlermeldung beim booten kriegst du auf jeden fall weg in dem du den eintrag aus /etc/fstab entfernst. wenn das entfernen des thin pools weiterhin nicht funktioniert (auch nicht durch entfernen der tmeta/tdata LVs - eventuell auch hier mit --verbose und --force und etwaige meldungen hier posten), dann bleibt wohl nur mehr ein backup von wichtigen configs und /etc/pve machen, und neuinstallieren.
Hi fabian,
erst einmal vielen vielen Dank für deine Geduld mit mir, und deine Hilfe, das ist einfach MEGA !!!

Ich werde wohl nicht um eine Neuinstallation herumkommen so wie ich das sehe.. :(

Code:
vmhost03:/# lvchange -an pve/data -v
  Deactivating logical volume pve/data.

vmhost03:/# lvremove pve/data -v --force
  Archiving volume group "pve" metadata (seqno 461).
  activation/volume_list configuration setting not defined: Checking only host tags for pve/data.
  Creating pve-data_tmeta
  Loading table for pve-data_tmeta (253:1).
  Resuming pve-data_tmeta (253:1).
  Creating pve-data_tdata
  Loading table for pve-data_tdata (253:2).
  Resuming pve-data_tdata (253:2).
  Executing: /usr/sbin/thin_check -q /dev/mapper/pve-data_tmeta
  Creating pve-data-tpool
  Loading table for pve-data-tpool (253:3).
  Resuming pve-data-tpool (253:3).
  Creating pve-data
  Loading table for pve-data (253:4).
  Resuming pve-data (253:4).
  Loading table for pve-data_tdata (253:2).
  Suppressed pve-data_tdata (253:2) identical table reload.
  Loading table for pve-data_tmeta (253:1).
  Suppressed pve-data_tmeta (253:1) identical table reload.
  Loading table for pve-data-tpool (253:3).
  Suppressed pve-data-tpool (253:3) identical table reload.
  Cannot send messages to thin pool pve-data-tpool (253:3) with read only metadata which needs check first.
  Failed to suspend pve/data with queued messages.
  Removing pve-data (253:4)
  Removing pve-data-tpool (253:3)
  Executing: /usr/sbin/thin_check -q /dev/mapper/pve-data_tmeta
  Removing pve-data_tdata (253:2)
  Removing pve-data_tmeta (253:1)
  Failed to update pool pve/data.

Grüße
eure Foxi