[Resolu] mdadm: impossible de monter un raid5

mdadm: impossible de monter un raid5 [Resolu] - Hardware - Linux et OS Alternatifs

Marsh Posté le 27-02-2016 à 01:48:25    

Bonjour,
 
J'ai un raid5 avec 4 disque dur (3 sur les commandes qui suivent car j'ai retiré le spare) sur une Debian qui tournait tranquillement depuis 2ans lorsque j'ai voulu mettre à jour le système. Le résultat fut un plantage complet du système après reboot.
 
Partant de la, j'ai réinstallé le système et... recréé l'array (1ere erreur). Ensuite j'ai voulu monter md0 et la ce fut le drame,  
 

Code :
  1. mount /dev/md0 /mnt/
  2. mount: mauvais type de système de fichiers, option erronée, superbloc erroné
  3.         sur /dev/md0, page de code ou programme auxiliaire manquant, ou autre erreur


 
Dmesg me donne cela:
 

Code :
  1. md/raid:md0: raid level 5 active with 2 out of 3 devices, algorithm 2
  2. [ 1975.870259] created bitmap (15 pages) for device md0
  3. [ 1975.871211] md0: bitmap initialized from disk: read 1 pages, set 0 of 29807 bits
  4. [ 1975.935837] md0: detected capacity change from 0 to 4000527155200
  5. [ 1975.936512] RAID conf printout:
  6. [ 1975.936517]  --- level:5 rd:3 wd:2
  7. [ 1975.936522]  disk 0, o:1, dev:sda1
  8. [ 1975.936527]  disk 1, o:1, dev:sdb1
  9. [ 1975.936531]  disk 2, o:1, dev:sdc1
  10. [ 1975.940388]  md0: unknown partition table
  11. [ 2065.178513] md: recovery of RAID array md0
  12. [ 2065.178521] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
  13. [ 2065.178528] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
  14. [ 2065.178540] md: using 128k window, over a total of 1953382400k.
  15. [ 2065.178546] md: resuming recovery of md0 from checkpoint.
  16. [ 2065.178548] EXT4-fs (md0): Couldn't mount because of unsupported optional features (1fd00001)


 
Je constate donc que 1 j'ai une reconstruction d'un disque alors que théoriquement aucun besoin (je l'ai suspendu.)
                                2 md0: unknown partition table
 

Code :
  1. cat /proc/mdstat
  2. Personalities : [raid6] [raid5] [raid4]
  3. md0 : active raid5 sda1[0] sdc1[3] sdb1[1]
  4.       3906764800 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
  5.       [>....................]  recovery =  1.5% (30515040/1953382400) finish=32031.7min speed=1000K/sec
  6.       bitmap: 0/15 pages [0KB], 65536KB chunk
  7. unused devices: <none>


 

Code :
  1. fdisk -l
  2. Disque /dev/sda : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs
  3. Unités : secteur de 1 × 512 = 512 octets
  4. Taille de secteur (logique / physique) : 512 octets / 512 octets
  5. taille d'E/S (minimale / optimale) : 512 octets / 512 octets
  6. Type d'étiquette de disque : dos
  7. Identifiant de disque : 0x0001ffa7
  8. Device     Boot Start        End    Sectors  Size Id Type
  9. /dev/sda1        2048 3907028991 3907026944  1,8T fd Linux raid autodetect
  10. Disque /dev/sdb : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs
  11. Unités : secteur de 1 × 512 = 512 octets
  12. Taille de secteur (logique / physique) : 512 octets / 4096 octets
  13. taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
  14. Type d'étiquette de disque : dos
  15. Identifiant de disque : 0x00094075
  16. Device     Boot Start        End    Sectors  Size Id Type
  17. /dev/sdb1        2048 3907029167 3907027120  1,8T fd Linux raid autodetect
  18. Disque /dev/sdc : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs
  19. Unités : secteur de 1 × 512 = 512 octets
  20. Taille de secteur (logique / physique) : 512 octets / 512 octets
  21. taille d'E/S (minimale / optimale) : 512 octets / 512 octets
  22. Type d'étiquette de disque : dos
  23. Identifiant de disque : 0x0008fdd5
  24. Device     Boot Start        End    Sectors  Size Id Type
  25. /dev/sdc1        2048 3907028991 3907026944  1,8T fd Linux raid autodetect
  26. Disque /dev/sdd : 29,2 GiB, 31376707072 octets, 61282631 secteurs
  27. Unités : secteur de 1 × 512 = 512 octets
  28. Taille de secteur (logique / physique) : 512 octets / 512 octets
  29. taille d'E/S (minimale / optimale) : 512 octets / 512 octets
  30. Type d'étiquette de disque : gpt
  31. Identifiant de disque : BF7E1601-FA94-4A7E-B222-AEAA3ED2C539
  32. Device     Start      End  Sectors  Size Type
  33. /dev/sdd1   2048 61282303 61280256 29,2G Linux filesystem
  34. Disque /dev/md0 : 3,7 TiB, 4000527155200 octets, 7813529600 secteurs
  35. Unités : secteur de 1 × 512 = 512 octets
  36. Taille de secteur (logique / physique) : 512 octets / 4096 octets
  37. taille d'E/S (minimale / optimale) : 524288 octets / 1048576 octets


 

Code :
  1. fsck /dev/md0
  2. fsck de util-linux 2.25.2
  3. e2fsck 1.42.12 (29-Aug-2014)
  4. fsck.ext4: Révision de système de fichier trop grande lors de la tentative d'ouverture de /dev/md0
  5. La version du système de fichiers est apparemment trop élevée pour cette
  6. version d'e2fsck. (ou bien le superbloc du système de fichiers est
  7. corrompu)
  8. Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
  9. ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
  10. un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
  11. alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
  12. e2fsck avec un autre superbloc :
  13.     e2fsck -b 8193 <périphérique>
  14. ou
  15.     e2fsck -b 32768 <périphérique>


 

Code :
  1. mdadm --detail /dev/md0
  2. /dev/md0:
  3.         Version : 1.2
  4.   Creation Time : Sat Feb 27 00:22:09 2016
  5.      Raid Level : raid5
  6.      Array Size : 3906764800 (3725.78 GiB 4000.53 GB)
  7.   Used Dev Size : 1953382400 (1862.89 GiB 2000.26 GB)
  8.    Raid Devices : 3
  9.   Total Devices : 3
  10.     Persistence : Superblock is persistent
  11.   Intent Bitmap : Internal
  12.     Update Time : Sat Feb 27 01:35:33 2016
  13.           State : clean, degraded, recovering
  14. Active Devices : 2
  15. Working Devices : 3
  16. Failed Devices : 0
  17.   Spare Devices : 1
  18.          Layout : left-symmetric
  19.      Chunk Size : 512K
  20. Rebuild Status : 1% complete
  21.            Name : debian:0  (local to host debian)
  22.            UUID : a9777543:8c595754:031bc6de:7cbdb08d
  23.          Events : 572
  24.     Number   Major   Minor   RaidDevice State
  25.        0       8        1        0      active sync   /dev/sda1
  26.        1       8       17        1      active sync   /dev/sdb1
  27.        3       8       33        2      spare rebuilding   /dev/sdc1


 

Code :
  1. mdadm --examine /dev/md0
  2. mdadm: No md superblock detected on /dev/md0.


 
 
Si une bonne âme pouvais m'apporter son aide, j’apprécierai énormément car la je vous avoue je flippe un peu pour mes données.
 
question subsidier, une reconstruction de disque détruit t'elle les données sur le dit disque? (dois-je avoir peur de laisser la reconstruction ce faire?)
 
Merci


Message édité par Teletrapinaer le 09-04-2016 à 15:13:01
Reply

Marsh Posté le 27-02-2016 à 01:48:25   

Reply

Marsh Posté le 01-03-2016 à 14:21:55    

Bonjour,
 
Quand on voit l Etât :
 
Update Time : Sat Feb 27 01:35:33 2016
State : clean, degraded, recovering
 
On voit qu'il a besoin de reconstruire une partie du raid, pourquoi l'en empêcher ?


---------------
Les avis, c'est comme les anus, tout le monde en a un.
Reply

Marsh Posté le 09-04-2016 à 15:08:26    

Problème résolue!
 
Alors pourquoi je ne le laissais pas se reconstruire? Et bien car il reconstruisait le dernier disque que je rentrais dans la commande  
"mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sda1 /dev/sdb1 /dev/sdd1"
 
Un peu trop aléatoire à mon gout.
 
Du coup pour la solution j'ai essayé les différentes combinaisons de montage des disques en mode dégrade par 2 (/dev/sda1 /dev/sdb1 missing ; /dev/sdb1  /dev/sda1 missing ; etc...)
Avec testdisk je regardais qu'elle partition il trouvais et si il arrivait à lire une arborescence dessus.
Sur les 6 montages possible avec les 3 disques, il y en a qu'un qui me montrait une arbo complète.
De la j'ai pu re-mettre les disques dans l'ordre (à savoir pour moi d -> b -> a). Il a reconstruit sda et j'ai eu de nouveau accès a mon raid.
J'ai fait un fsck et aucunes erreurs détecté.
 
Point Important: sur testdisk lors du choix du type du disque, choisir "none" et non pas Intel ou gpt. (j'ai bien du perdre 2 jours à comprendre que le système de fichier lors d'un raid crée avec mdadm ne repose pas sur une de table de partition spécifique mais sur celle des disques physiques et donc invisible au yeux du fs (enfin de testdisk en tout cas), et encore que...
 
Si quelqu’un connais l'emboitement exacte entre les tables de partitions qui sont sur les disques physiques, avec les fs sur les disque physiques et le fs crée par mdadm par dessus tout ça, je suis preneur.
 
Merci pour votre attention.

Reply

Marsh Posté le 21-07-2017 à 00:19:22    

Je sais la discussion est résolue mais une petite question, attendais-tu que ta grappe RAID soit reconstruite pour faire les Testdisk??? Je suis dans le même cas que toi mais j'ai 6 disques dont si je peux essayer les différentes possibilités d'ordre des disques sans laisser la grappe se reformer ça me fera gagner du temps...
Merci énormément d'avance.

Reply

Marsh Posté le 21-07-2017 à 15:20:39    

Si quelqu’un connais l'emboitement exacte entre les tables de partitions qui sont sur les disques physiques, avec les fs sur les disque physiques et le fs crée par mdadm par dessus tout ça, je suis preneur.http://www.ximi.us/usa/images/71.gif

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed