superblock raid5

superblock raid5 - Installation - Linux et OS Alternatifs

Marsh Posté le 22-01-2007 à 20:24:05    

j ai un pb de redemarrage de mon raid 5 avec 4 disques apres un arret brutale ..
 
mdadm --assemble /dev/md0  /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: superblock on /dev/sdc1 doesn't match others - assembly aborted
 
 
sdc et sdd ont un uid different de sda et sdb
 
 
mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 189bd492:b44c19c4:5bc32464:37034fe1
  Creation Time : Mon Jan  1 14:03:18 2007
     Raid Level : raid5
    Device Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Thu Jan 18 20:05:54 2007
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : b13fa492 - correct
         Events : 0.52
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     0       8        1        0      active sync   /dev/sda1
 
   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
mdadm --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 189bd492:b44c19c4:5bc32464:37034fe1
  Creation Time : Mon Jan  1 14:03:18 2007
     Raid Level : raid5
    Device Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Thu Jan 18 20:05:54 2007
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : b13fa4a4 - correct
         Events : 0.52
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1
 
   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
mdadm --examine /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 189bd492:b44c19c4:cc409ef3:5afe03cc
  Creation Time : Mon Jan  1 14:03:18 2007
     Raid Level : raid5
    Device Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Thu Jan 18 20:05:54 2007
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 45b7d331 - correct
         Events : 0.52
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     2       8       33        2      active sync   /dev/sdc1
 
   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
 
mdadm --examine /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 00.90.00
           UUID : 189bd492:b44c19c4:cc409ef3:5afe03cc
  Creation Time : Mon Jan  1 14:03:18 2007
     Raid Level : raid5
    Device Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 1465151808 (1397.28 GiB 1500.32 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
 
    Update Time : Thu Jan 18 20:05:54 2007
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 45b7d343 - correct
         Events : 0.52
 
         Layout : left-symmetric
     Chunk Size : 64K
 
      Number   Major   Minor   RaidDevice State
this     3       8       49        3      active sync   /dev/sdd1
 
   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
 
j ai essayer de redemarrer au boot avec l option start_durty_upgraded=1
 
cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 hdc1[0]
      29294400 blocks [2/1] [U_]
 
md1 : active raid1 hda5[0] hdc5[1]
      128343168 blocks [2/2] [UU]
 
unused devices: <none>
 
 
merci
 
 
 

Reply

Marsh Posté le 22-01-2007 à 20:24:05   

Reply

Marsh Posté le 24-01-2007 à 12:36:16    

Il m'était arrivé quelque chose d'approchant : 3 disques sur un array de 5 + 1 spare en RAID5 étaient devenus indisponibles d'un coup. Heureusement ils n'étaient pas en panne (même si je ne sais toujours pas pourquoi ils ont eu ce hoquet), par contre au redémarrage mdadm ne voulait plus assembler l'array car les superblocks n'étaient plus à jour. Dans ce cas j'ai du forcer l'assemblage via le paramètre --force, et après reconstruction les données étaient de retour.
 
Pour ton problème je ne sais pas si ça fonctionnera à cause de ton histoire de uuid différents, peut-être faudra-t-il rajouter le paramètre --update=uuid pour que ça passe. Dans tous les cas bonne chance, vaut mieux croiser les doigts quand on est obligé de faire ce genre de manip...

Reply

Marsh Posté le 25-01-2007 à 13:20:31    

le parametre --force est explicitement spécifié comme très dangereux dans la doc de mdadm.
Je plussoie quand à la dangerosité de la manipe.

Reply

Marsh Posté le 26-01-2007 à 17:59:42    

en faite le pb est aussi le suisant :
 
j ai un kernel 2.6.18.3 sans module raid5 qui me permet de booter sur root(raid1) et home(raid1)
 
le boot ce passe normalement avec mdadm-autostart=> md2 et md1
 
lorsque je demarre en 2.6.19 avec le module raid5 sa plante dans initramfs  
 
de meme si j aoute en 2.6.19 start_durty_upgraded=1 au boot
 
impossible d executer les commandes mdadm raid5 en 2.6.18 .... deadlock
 
quelques conseils ...
 
merci

Reply

Marsh Posté le 27-01-2007 à 12:27:57    

Quelle distrib ? Personnellement je ne m'embête pas avec les modules, la gestion du  RAID 5 est chez moi compilée dans le noyau.

Reply

Marsh Posté le 27-01-2007 à 15:24:11    


je travaille sous debian en generale uniquement avec www.kernel.org
 
je vais essayer un kernel officiel debian dans la semaine ...
 
en faite il semble apres analyse des traces qu il a un pb au boot pour charger un module  en 2.6.19 ... .

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed