RAID sur LVM possible ?

RAID sur LVM possible ? - Divers - Linux et OS Alternatifs

Marsh Posté le 08-05-2005 à 23:06:38    

Hello,
 
Petite question à propos de mon serveur que je monte sous debian sarge: est-il possible de monter du raid sur du lvm afin de pouvoir resizer les partitions par la suite et en même tps profiter du raid pour la sécurité des données ?
 
Le schema serait le suivant:
 
hde1 = RAID 1 = /boot
hde2 = LVM = 1 volume raid 1 + 1 volume raid lineaire
 
hdg1 = RAID 1 = /boot
hdg2 = LVM = 1 volume raid 1 + 1 volume raid lineaire


---------------
Mon Mod Packard Bell
Reply

Marsh Posté le 08-05-2005 à 23:06:38   

Reply

Marsh Posté le 08-05-2005 à 23:24:06    

J'ai ouie dire que mélanger LVM et Raid soft n'était pas une bonne idée, à cause des scripts de démarrages des distribs qui ne démarrent pas forcément Raid et LVM dans le bon ordre :/

Reply

Marsh Posté le 08-05-2005 à 23:33:12    

je suis en train de tester une autre configuration...tant pis pour le raid linéaire...
 
hde1 + hdg1 = md0 = /boot
hde2 + hdg2 = md1 = / + /home + /mnt/storage en lvm (comme ça quand il manque de la place je peux ajouter des disques à la volée)


---------------
Mon Mod Packard Bell
Reply

Marsh Posté le 09-05-2005 à 11:24:54    


Perso j'ai utilise pendant un bon momment cette deuxieme solution,
ce que je peut t'en dire:
 
1 les partitions en raid 1 soft sont quasi indiscernables des partitions  
normales donc il n'est pas inutile d'editer le fichier /etc/lvm/lvm.conf pour
exclure dans la section devices tout les devices servant de base au raid.
Cela evite l'activation du lvm sur un seul composant du raid.
 
2 Le raid 1 niveau perf en lecture sur du sata/pata c'est pas extraordinaire
et niveau securité j'ai des gros doutes sur le comportement de la machine lors de  
la perte d'un des disques. A mon avis meixu vaut des sauvegardes regulieres.

Reply

Marsh Posté le 09-05-2005 à 11:58:57    

maxmaverick> merci pour ton témoignage ! Je n'ai juste pas compris ton premier point.
 
Le raid est en train se construire, dès qu'il a fini je vais essayer de débrancher un disque pour voir ce que cela donne.
 
J'aurai une autre solution: le RAID de ma carte mère HTP366 mais je sais pas qu'elle est la meilleure solution


---------------
Mon Mod Packard Bell
Reply

Marsh Posté le 09-05-2005 à 14:37:58    

LVM + Raid ça marche.
 
Pour le Raid aucun problème: reconnu au boot.
Pour le LVM, c'est plus compliqué, si la racine (/) est sur le LVM, alors il faudra l'activer dans le initrd.
Alors, pour pas m'embêter, j'ai un / (et /boot) sur une partition normale et le reste du(des) disque(s) est en LVM avec home, tmp, usr, var dessus.

Reply

Marsh Posté le 09-05-2005 à 17:07:52    

Là je vais tenter de débrancher un disque pour voir ce que ça donne ;)
 
Pour l'instant la config est la suivante:
 
/boot de 64 Mo (ext3) en raid 1 sur le 2 disques
 
le reste du disque en raid 1 et dessus du lvm avec /, /home et /mnt/storage


---------------
Mon Mod Packard Bell
Reply

Marsh Posté le 09-05-2005 à 19:29:40    

Bon...ça marche pas comme je veux...en desactivant le 1er disque ça boot encore mais en désactivant le 2ème ça boot plus :(
 
En fait j'aimerai que si un jour mon 1er disque lache, ben mon serveur continu de pouvoir démarer  :cry:  
 
J'ai essayé un grub-install sur le second disque mais ça change pas grand chose...:(


---------------
Mon Mod Packard Bell
Reply

Marsh Posté le 14-08-2006 à 12:37:54    

Hello,
 
Justement, j'ai eu de gros problèmes.
 
Bon en fait à la base c'est de ma faute, j'ai voulu mettre un kernel 2.6 de backports + udev de backports, et il m'a dit qu'il allait me virer le kernel-image d'origine + hotplug, donc je me suis dit que c'etait paas grave, car je'aurais pu réinstaller ce kernel avec initrd en chrootant sur ma debian depuis une kno.
 
Donc le boot sur 2.6.16 marchait pas, et qd j'ai voulu chrooter sur ma debian à partir de kno, j'arivais à voir tous mes Lvs, mais qd je reinstallais l'ancien kernel, et que j'essayais de regénérer un initrd, paf, au boot, il ne trouvait pas le volum group, et c'est vrai que ma partition / était dans un lv :-( lol.
 
Le truc c'est qu'au bout de pas mal d'heures, je me suis résigné, à reinstaller, mais par contre, j'ai préféré par sécurité, garder exactement la même structure de partitoins, pour avoir plus de chances de récupérer la plupart de mes LVs (j'ai donc récupéré tous mes Lvs intactes en reinstallant sauf les LVs home et / que forcement, j'ai préféré reinstaller pour que ca soit plus propre).
 
DOnc appremment, la génération de l'initrd depuis un chrot pose qd même des soucis...car depuis ma reinstallation en tout cas, qd je veux installer un noveau kernel-image, bah l'initrd est correct et je peux booter sur ce nouveau noyau donc le pb est vraiment localisé qd on le fait d'un chroot lol.
 
Faudrait trouver une solution pour pouvoir regénérer un initrd nikel qui prenne en compte le lvm de /, même depuis un chroot lol.
 
A+

Reply

Marsh Posté le 14-08-2006 à 14:15:03    

salut,
Pour faire un l'initrd d'un noyau qui marche avec udev, il faut utiliser mkinitramfs et le chroot fonctionne bien : apt-get install initramfs-tools

 

Sous ubuntu, le raid et lvm sont pris en compte via mkinitramfs.


Message édité par depx le 14-08-2006 à 14:15:37
Reply

Marsh Posté le 14-08-2006 à 14:15:03   

Reply

Marsh Posté le 15-08-2006 à 08:24:53    

Oki.
 
Tu utilises quelle syntaxe exactement pour faire la génération toi mm ? :-)
 
Pq si on veut l'utiliser automatiquement lors d'une install ou compil, comment il sait qu'il faut forcement utiliser ca et pas mkinitrd par exemple?
 
PS: Appremment avec le noyau 2.6.14 en backporrs, il m'a installé yaird, et il m'a généré l'initrd avec ca, ce qui semble etre encore une autre possibilité :-)
 
A+

Reply

Marsh Posté le 15-08-2006 à 15:37:35    


thierry_b a écrit :
Oki.Tu utilises quelle syntaxe exactement pour faire la génération toi mm ? :-)

 

mkinitramfs -o /boot/initrd.img-2.6.17.8-depx 2.6.17.8-depx

 

Pq si on veut l'utiliser automatiquement lors d'une install ou compil, comment il sait qu'il faut forcement utiliser ca et pas mkinitrd par exemple?

 

je ne  sais pas ???
En tout cas, je ne sais plus à partir de quel noyau il y a eu la transisyion hotplug -> udev
Peut être que les backporteurs ont magoullié le truc pour que cela fonctionne ?
Ou peut être que yaird gère bien le truc pour se passer d'udev ???


Message édité par depx le 15-08-2006 à 15:37:57
Reply

Marsh Posté le 15-08-2006 à 21:27:35    

C'est possible,
 
pq qd j'avais installé le backports de 2.6.16 meme avec udev sous sarge, ca bloquait à un moment au niveau du dev.

Reply

Marsh Posté le 18-10-2006 à 21:01:45    

hum.. on remonte se topic.. interraissant  
 
Juste pour dire que faire du RAID sur du LVM.. ça me semble chaud..  
par contre faire du LVM sur du RAID c'est plutot conseillé..
 
J'ai un raid software 5 sur 8 disques dur IDE (tous en maitre = 8 nappes IDE dans le PC)
 
pour ceux qui ne me croient pas : j'ai mon dernier disque en /dev/hdo  
 
J'ai installé le RAID via l'outil partman livré sur le cd de debian à l'installation..
 
Il a fallu passer par la case makedev en plein milieu de l'installation car debian n'a pas créé /dev/hdi /dev/hdk /dev/hdm /dev/hdo à l'installation  
 
sauf que dans le noyau 2.6.8 de base .. il y  a 2 pilotes en mode débug :
hpt366 .. et vu que j'ai 2 cartes htp370 dans le serveur.. il me sort des messages de débugs à longueur de journée sur la console..
pilote de la RTL8169 qui reset toutes les secondes.. => du gigabit à peine plus rapide que du 100M.. avec des messages sur l'écran en prime..
 
enfin : devfs  me sort des erreurs genre 200 fois :
devfs_mk_dir: invalid argument.<4>devfs_mk_dev: could not append to parent for /disc  
 
au démarrage du noyau.. ça me dit rien qui vaille  
 
Je veux passer en 2.6.1x .. pour avoir des pilotes à jour et sans BUG comme ceux que j'ai.. car les performances du serveur sont réduite à néant
 
Impossible de démarrer avec un noyau avec de l'UDEV.. quelqu'un à trouvé de la doc dessus.. qui explique la marche à suivre.. ça doit faire 3 mois que je suis sur cette recompilation .. (entre les kernel panic..et autres histoires de ce genre, je suis verni)  
 
merci à tous.
 
Donc j'ai décidé de recompiler le noyau

Reply

Marsh Posté le 25-11-2008 à 11:42:00    

Salut !
j'ai fait cette joli boulette  
j'ai 2 Volumes LVM dans 2 disques  
dans lesquels j'ai 2 LV de 100Go , et j'ai mis ces 2 partitions dans un RAID1, le but était de ne pas mettre toute la partition en RAID et de garder de la souplesse.
ça a marché jusqu'au premier reboot !
 
ensuite un des disques a été déclaré comme down.
là j'ai réinstallé mon système (ubuntu Hardy serveur).
mais c'est encore pire car je n'arrive meme pas a monter qu'une partition du LVM, une autre ne veux pas se monter (les 2 en dehors du raid) et les 2 suposées etres en raid1 sont immontable aussi !
 
je voulais essayer de démarrer le raid après lvm mais je n'ai pas réussi
des conseils ? :)
 
Merci.

Reply

Marsh Posté le 10-12-2008 à 11:12:58    

Hello  
 
Raid + LVM(2) (LVM sur RAID) ca marche, c'est aujourd'hui correctement géré par la plupart des distrib.
 
A+

Reply

Marsh Posté le 10-12-2008 à 11:35:14    

Kytrix a écrit :

Salut !
j'ai fait cette joli boulette
j'ai 2 Volumes LVM dans 2 disques
dans lesquels j'ai 2 LV de 100Go , et j'ai mis ces 2 partitions dans un RAID1, le but était de ne pas mettre toute la partition en RAID et de garder de la souplesse.
ça a marché jusqu'au premier reboot !

 

ensuite un des disques a été déclaré comme down.
là j'ai réinstallé mon système (ubuntu Hardy serveur).
mais c'est encore pire car je n'arrive meme pas a monter qu'une partition du LVM, une autre ne veux pas se monter (les 2 en dehors du raid) et les 2 suposées etres en raid1 sont immontable aussi !

 

je voulais essayer de démarrer le raid après lvm mais je n'ai pas réussi
des conseils ? :)

 

Merci.

 


Tu dois remonter ce que tu as créer c'est a dire le raid puis LVM. Rien d'autre ne fonctionnera.
A noter que ton raid peux démarrer en mode dégradé (un seul disque) puisque c'est du raid 1, c'est fait pour ca en faite ;). Cela ne bloquera pas le demarrage de LVM.
Mais le mieux reste quand même de faire demarrer le raid correctement.

 

Je supose que tes disques sda et sdb (si ce sont des ide plutôt que sata/scsi remplace par hd tous les sd. ie sda => hda)

 

1° ) tappe ls /dev/sd* tes partitions sont-elles toutes là ? si j'ai tout compris tu dois avoir /dev/sda, /dev/sda1, /dev/sda2, /dev/sdb, /dev/sdb1, /dev/sdb2

 

2° ) fait un cat de /etc/fstab pour voir les montage encore declarer

 

3°) tappe mount -l  ca va te donner la liste de tes montages disque.

 

4° ) fait un cat de /etc/mdadm.conf ou /etc/mdadm/mdadm.conf pour avoir la config des partitions raid

 

5°) fait un mdadm -e /dev/md0 ET mdadm -e /dev/md1 (en principe les partitions raid s'appelle mdx (x =numéro de partition) mais adpate si tu as changer la confige standard) pour connaitre l'état des partitions raid

 

6°) et enfin cat /proc/mdstat pour connaitre les actions en cours sur les raid

 

Et envoi tout ca ;)


Message édité par m3z le 10-12-2008 à 19:44:17
Reply

Marsh Posté le 17-12-2008 à 12:46:52    

m3z> merci pour ton aide,
je ne traine plus souvent pas ici , ce qui explique mon retard.
 
pour mon souci, sur la partition de 100Go j'ai rien pu récupéré
j'ai recré toutes mes partitions de données LVM sur un raid0 et là ça va mieux
sauf que ma carte mere nforce4 merde avec les disques SATA2 et j'ai du désactiver le cache et le NCQ sur les disques .. depuis ça tiens bon
avant cela lors d'un transfert je me tapais un soft reset link sur le bus sata puis hard reset puis disk offline.
du coup je devais rebooter et là je me tappais une resynchro raid de 12-15 heures.
 
enfin là ça a l'air de tenir le choc !

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed