Visualizzazione dei risultati da 1 a 4 su 4
  1. #1
    Utente di HTML.it L'avatar di cobra
    Registrato dal
    Aug 2006
    Messaggi
    216

    Recovery di un disco in fail LVM su RAID1

    Ciao gente, sto facendo delle simulazioni con Debian e Fedora per impratichirmi con la gestione del RAID e dell' LVM, ho a disposizione un semplice pc con 2 hard disk IDE collegati come primary master (hda) e secondary master (hdc).

    Per quanto riguarda il raid1 (software) non ci sono problemi, ho capito come funziona e devo dire che funziona proprio bene.

    Anche per l'LVM non ci sono problemi, con i vari howto ho visto come si deve procedere e sembra tutto ok.

    A questo punto ho voluto provare (sempre con una nuova installazione) a creare un LVM su un RAID1 e l'installazione riesce, però quando simulo il fail di un disco, non capisco come si debba procedere per il restore :master:

    Con mdadm riesco a ricreare il mirror e se faccio ripartire il sistema facendo il boot dal "nuovo" disco funziona ma i vari pvdisplay lvdisplay e vgdisplay mi danno tutti un bel "Incorrect metadata area header checksum"

    Sto cercando di chiarirmi le idee con i vari documenti scovati in rete ma ancora non sono riuscito a venirne a capo

    Qualcuno di voi ha già avuto esperienze in merito e mi può dare una mano?

    Scusate per la lunghezza del post e grazie in anticipo a chiunque vorrà rispondere.

  2. #2
    mai avuto a che fare con gli lvm ma qui c'è qualcosa riguardo a quell'errore

    http://tldp.org/HOWTO/LVM-HOWTO/recovermetadata.html
    Sotto la panza la mazza avanza.

  3. #3
    Utente di HTML.it L'avatar di cobra
    Registrato dal
    Aug 2006
    Messaggi
    216
    Grazie per il link ma l'LVM-HOWTO è stato il primo documento che ho letto

    Ad ogni modo ho trovato un paio di link interessanti, li posto nel caso interessassero a qualcuno:
    1) http://www.linuxjournal.com/article/8874
    2) http://www.midhgard.it/docs/lvm/html/index.html

    Credo che il secondo sia quello che si avvicina di più alla mia situazione, vado a leggermeli con (molta) calma.

    Bye

  4. #4
    Utente di HTML.it L'avatar di cobra
    Registrato dal
    Aug 2006
    Messaggi
    216
    Dunque ragazzi, credo di aver fatto un passo avanti, perciò vi aggiorno (sperando interessi a qualcuno )

    Il sistema è partizionato in questo modo:

    localhost:~# fdisk -l /dev/hda

    Disk /dev/hda: 40.0 GB, 40037760000 bytes
    255 heads, 63 sectors/track, 4867 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes

    Device Boot Start End Blocks Id System
    /dev/hda1 * 1 12 96358+ fd Linux raid autodetect
    /dev/hda2 13 4867 38997787+ fd Linux raid autodetect

    localhost:~# fdisk -l /dev/hdc

    Disk /dev/hdc: 40.0 GB, 40037760000 bytes
    255 heads, 63 sectors/track, 4867 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes

    Device Boot Start End Blocks Id System
    /dev/hdc1 * 1 12 96358+ fd Linux raid autodetect
    /dev/hdc2 13 4867 38997787+ fd Linux raid autodetect

    localhost:~# mdadm --detail --scan
    ARRAY /dev/md0 level=raid1 num-devices=2 UUID=d4b75f53:9a43b2b6:8abdd548:623e7b03
    devices=/dev/hda1,/dev/hdc1
    ARRAY /dev/md1 level=raid1 num-devices=2 UUID=bb80ee27:ece709d2:1f8715fb:4fddce94
    devices=/dev/hda2,/dev/hdc2

    Per eseguire correttamente il boot ho creato sul device /dev/md0 la partizione /boot in ext3 (a quanto pare non si può fare il boot di un logical volume direttamente :master: )

    Sul device /dev/md1 ho creato invece un Volume Group chiamato VG0 e suddiviso a sua volta in due Logical Volume LV0 e LV1

    localhost:~# vgscan
    Reading all physical volumes. This may take a while...
    Found volume group "VG0" using metadata type lvm2

    localhost:~# lvscan
    ACTIVE '/dev/VG0/LV0' [512,00 MB] inherit
    ACTIVE '/dev/VG0/LV1' [36,69 GB] inherit

    Ora il raid funziona alla grande:

    localhost:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 hda1[0] hdc1[1]
    96256 blocks [2/2] [UU]

    md1 : active raid1 hda2[0] hdc2[1]
    38997696 blocks [2/2] [UU]

    unused devices: <none>

    e anche provando a scollegare fisicamente uno dei due dischi oppure a forzare con mdadm il fail di un disco, LVM non fa una piega e il sistema regge come niente fosse accaduto.
    Suppongo che LVM non "si accorga" del fail del disco poichè è costruito su di un unico device (md1) che comunque rimane consistente in quanto mirrorato.
    Non so spiegarmi il motivo per il quale, nella precedente installazione che avevo fatto, mi fosse uscito quel messaggio di errore
    Sui vari documenti che ho letto non sono riuscito a capire se sia necessario o meno eliminare il Volume Group prima di ricostruire l'array ma stando alle prove che ho fatto non sembra nemmeno possibile (perlomeno con la configurazione che ho creato io ).

    Se siete arrivati a leggere fino a questo punto vi meritate un grazie

    P.S. se qualcuno leggendo si fosse accorto di qualche mio errore mi farebbe veramente felice se replicasse al post indicandomi la corretta soluzione.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.