Choix d'infrastructure iSCSI

Choix d'infrastructure iSCSI - Stockage - Systèmes & Réseaux Pro

Marsh Posté le 28-02-2012 à 13:06:44    

Bonjour à tous,
Après lecture de nombreux topic sur le forum, je sollicite à mon tour vos lumières n'ayant trouvé réponses à mes interrogations.
 
Il y a un an, j'ai mis en place une solution SAN, qui ne me donne pas satisfaction. Je me tourne donc vers vous aujourd'hui, afin d'avoir votre avis sur les erreurs que j'ai pu faire, ainsi je tenterai de les contourner pour la nouvelle infra que je dois mettre en place.
 
Configuration:  
1 BladeCenter Dell 1000e
5 lames Dell M610
1 baie Dell MD3200i 12x 600Go 15K SAS RAID10
 
Virtualisation Via Hyper-V de 90 VM
 
Voici un schéma d'implantation:
http://img11.hostingpics.net/pics/507965Cablage.jpg
 
Dans un premier temps, que pensez-vous de cette configuration, vous parait-elle cohérente?
 
Par avance Merci
 
 
 
 

Reply

Marsh Posté le 28-02-2012 à 13:06:44   

Reply

Marsh Posté le 28-02-2012 à 13:20:40    

tu as branché plein de prises sur un switch, une enclosure et une baie.
Oui, ca parait cohérent.

Reply

Marsh Posté le 28-02-2012 à 13:34:06    

Bonjour Jerem-57-, je suis Eric du support technique Dell.
 
Il manque des informations pour pouvoir t'aider. Avant tout quelles sont les adresses IP données ? (je pense surtout à la connection M1000e MD3200i) ?
 
Bien souvent sur des configurations SAN, c'est une mauvaise configuration qui entraine des soucis de performance ou autres.
Tu dis que cette solution ne te donne pas satisfaction: peux tu nous en dire plus ?
 
Eric


---------------
DELL La Voix Du Client
Reply

Marsh Posté le 28-02-2012 à 13:56:20    

Bonjour et merci pour vos réponses rapides.
@ Eric ->  
 
MD3200i :
Controller 0 port 0 : 192.168.130.101
Controller 0 port 1 : 192.168.131.101
Controller 0 port 2 : 192.168.130.110
Controller 0 port 3 : 192.168.131.110
Controller 1 port 0 : 192.168.130.102
Controller 1 port 1 : 192.168.131.102
Controller 1 port 2 : 192.168.130.120
Controller 1 port 3 : 192.168.131.120
 
Lame01 port 1 : 192.168.130.1 /24
Lame01 port 2 : 192.168.131.1 /24
Lame02 port 1 : 192.168.130.2 /24
Lame02 port 2 : 192.168.131.2 /24
Lame03 port 1 : 192.168.130.3 /24
Lame03 port 2 : 192.168.131.3 /24
Lame04 port 1 : 192.168.130.4 /24
Lame04 port 2 : 192.168.131.4 /24
Lame05 port 1 : 192.168.130.5 /24
Lame05 port 2 : 192.168.131.5 /24
 
Les résultats obtenus avec l'outil ATTO Disk BENCHMARK nous montrent des valeurs qui me paraissent trop peu élevées.  
Voici un résultat comparatif entre ce système et un serveur R710 ayant la même configuration que nos lames.
 
SAN :
http://img11.hostingpics.net/pics/358125ATTOVMSAN.jpg
 
R710 :
http://img11.hostingpics.net/pics/919804ATTOVMR710.jpg
 
 

Reply

Marsh Posté le 28-02-2012 à 16:08:59    

Merci pour ces informations.
 
Du point de vue du M1000e, de la configuration de l'Iscsi,... de nombreux éléments peuvent modifier les perfs. Selon les deux images, je vois que la différences est essentiellement en lecture, pas en écriture.
 
Je peux vous faire contacter par un technicien Dell qui pourra vous donner les bonnes pratiques à mettre à place, et une procédure pour faire un benchmark avec Iometer.
 
Si cela vous conviens, envoyez moi vos coordonnées par message privé, avec le n° de service tag de la baie.
 
Eric, Dell France.


---------------
DELL La Voix Du Client
Reply

Marsh Posté le 28-02-2012 à 17:45:49    

En dehors du fait que l'on n'a pas intérêt à comparer les performances d'une baie SAN et des disques locaux.
Je pense que tu devrais plutôt t’inquiéter de vérifier si la baie est capable de supporter en terme d'IOPS , tes 90VMs .
Pour cela , je ne connais qu'une seule bonne méthode , c'est utiliser iometer .

 

Sinon vu tes résultats avec ATTO, il me semble que tu utilises 2 liens actifs, les 2autres sont en failover. Ce qui fait correspondre tes résultats avec un 2Gb/s entre tes hôtes et ta baie.
Si vraiment tu constates que c'est insuffisant en terme de débit pour l'ensemble de tes VMs, il faudra soit  rendre actif les 2 paths en failover soit passer sur une baie + costaud, ISCSI 10GB ou FibreChannel.

 

Mais honnêtement sur du virtuel , c'est principalement les E/S qui feront tombés ou mettront en défaut ton infra le plus souvent.


Message édité par statoon54 le 28-02-2012 à 17:47:07
Reply

Marsh Posté le 28-02-2012 à 18:43:57    

est-ce que quelqu'un aurait une bonne procédure pour utiliser iometer ?
et ou telecharger la derniere version ? J'ai un peu parcouru, et tout ce que je trouve date un peu

Reply

Marsh Posté le 28-02-2012 à 19:09:26    

trictrac a écrit :

est-ce que quelqu'un aurait une bonne procédure pour utiliser iometer ?
et ou telecharger la derniere version ? J'ai un peu parcouru, et tout ce que je trouve date un peu


 
http://sourceforge.net/projects/io [...] =directory
 
Tu peux utiliser les fichiers sur le lien suivant pour les tests qui reflète le plus l'utilisation d'une infra courante.
http://vmktree.org/iometer/
Aprés tu peux comparer avec les autres sur ce lien http://communities.vmware.com/message/1982442 , c du vmware mais ça te donne un aperçu.
 
 
 

Reply

Marsh Posté le 28-02-2012 à 20:38:03    

En général sur du iSCSI il est préférable de mettre un réseau totalement dédié au iscsi et d'utiliser le jumbo frame pour améliorer les perfs et les limitation vu à la taille maximal des trames ip (MTU)
Le jumbo frames permet de mieux profiter des perfs des disques.

Reply

Marsh Posté le 28-02-2012 à 22:21:32    

J'avoue ne pas trop piger le pourquoi du un seul switch qui en plus est relié au net...

Reply

Marsh Posté le 28-02-2012 à 22:21:32   

Reply

Marsh Posté le 28-02-2012 à 22:52:01    

Merci a tous pour vos réponses. Je vais refaire des test avec iometer.  
@ Phil255 le jumbo frame est activé et le réseau iSCSI est dedié d'après moi ! Non?
@nebulios comment pourrais-je accéder à mes consoles depuis l'extérieur et sortir sur le net depuis mes lames?

Reply

Marsh Posté le 29-02-2012 à 00:24:04    

Le problème c'est que ton switch est un SPOF, tu le perds tu perds tout.
 
Ensuite comme dit plus haut la partie réseau stockage devrait être isolé du reste, avec des switchs séparés pour la redondance. Et il y aura du paramétrage Hyper-V à faire dans la foulée pour optimiser les perfs. D'ailleurs tu as combien d'hyperviseurs ?
 
Remplacer le cat 5e par du cat 6 ?
 
Bon il se fait tard donc je jettes juste quelques idées au pif  :D

Reply

Marsh Posté le 29-02-2012 à 08:49:28    

nebulios a écrit :

Le problème c'est que ton switch est un SPOF, tu le perds tu perds tout.


Effectivement, il y a un problème de redondance au niveau du lien vers l’extérieur, mais cela n'explique pas les soucis que je souhaite résoudre sur la partie stockage.

Citation :

Ensuite comme dit plus haut la partie réseau stockage devrait être isolé du reste, avec des switchs séparés pour la redondance. Et il y aura du paramétrage Hyper-V à faire dans la foulée pour optimiser les perfs. D'ailleurs tu as combien d'hyperviseurs ?

 
Pour moi la partie stockage est bien isolée puisque il y a deux switchs dédiés et le câblage est en cat 6. J'ai 5 lames avec un hyperviseur par lame.
 
Je suis entrain d'effectuer un test IOmeter, je posterai mes résultats pour avoir votre avis.
Si je comprends bien, IOmeter me permet d'avoir les capacité IOPS maximales de ma baie MD3200, mais je ne sais comment mesurer exactement ma consomation réelle en  IOPS ?


Message édité par Jerem-57- le 29-02-2012 à 11:30:49
Reply

Marsh Posté le 29-02-2012 à 12:46:15    

Au vu des courbes le débit en lecture a l'air de plafonné au même niveau même si la taille du doc augmente et je me demande à combien est ton MTU ?
Sur le Jumbo Frame et le MTU le schéma ne donne pas d'indication.  
Il n'y a que toi qui puisse en être sur
 

Reply

Marsh Posté le 29-02-2012 à 12:57:49    

Ta configuration est bonne malgré les commentaires du dessus , évidemment tu n'as pas de redondance sur la partie hôtes -> baie mais c'a n'a pas d'incidence sur les performances.

 

Pour le problème de dimensionnement , cela reste très variable  en fonction de l'utilisateur, des applis , des OS etc....
Si tu héberges des serveurs , tu peux utiliser perfmon sur du windows et iostat sur linux pour te faire une idée des iops requis.
Pour des postes clients , compte environ 25-30 iops/user pour un windows 7 bien utilisé , et environ 15iops/user pour de la bureautique de base. Divise par 2 pour du XP .
Ensuite tu compares tes chiffres à du 50%-50% workload aléatoire sur iometer.

 

Sinon tu peux aussi regarder tout ça au niveau de la baie elle-même sur une durée de 1mois, pour voir si à certain moment tu dépasses ses capacités. Si tu constates des lags , des files d'attente énormes etc....

 



Message édité par statoon54 le 29-02-2012 à 13:00:02
Reply

Marsh Posté le 08-03-2012 à 10:10:55    

Bonjour,
 
j'ai effectué différents tests avec notamment IOmeter depuis une de nos lames en spécifiant le volume partagé contenant toutes les VM.
Le test a été réalisé deux fois, en voici les captures:
http://img11.hostingpics.net/pics/325194IOmeter1ertest.jpg
http://img11.hostingpics.net/pics/320037IOmeter2ndtest.jpg
Ces chiffres vous paraissent-ils corrects ?
 
J'ai également fait des tests avec un autre outil, MAPS (Microsoft Assessment and Planning Toolkit) qui permet de sélectionner la VM que l'on veut tester. Nous avons trouvé des résultats nous indiquant environ 15/20 IOPS pour une seule VM (Server 2008 R2). Cela me parait peu aux vues du poste précédent qui indiquait cet ordre de grandeur pour un seul utilisateur. Qu'en pensez-vous ?

Reply

Marsh Posté le 08-03-2012 à 15:49:43    

Les résultats reflètent correctement les caractéristiques de la baie .
Maintenant à toi de voir si pour l'usage qui lui est destiné , ce sera suffisant .
90 vms ça représente environ 1800iops si on prend un w7 moyennant 20iops en charge moyenne.
Le test Workload 60/65% est le plus souvent constaté sur une baie .

 


A mon avis , ça me semble correct pour 90vms en charge moyenne + des serveurs virtuel je suppose ?
En tout cas , le "bottleneck" se situera au niveau de la baie disque ,et pas au niveau de la liaison iscsi .
 :lol:
Faudra juste suivre les performances de la baie sur une durée de 1mois.


Message édité par statoon54 le 08-03-2012 à 15:56:20
Reply

Marsh Posté le 08-03-2012 à 16:02:48    

Jerem-57- a écrit :

Bonjour,
J'ai également fait des tests avec un autre outil, MAPS (Microsoft Assessment and Planning Toolkit) qui permet de sélectionner la VM que l'on veut tester. Nous avons trouvé des résultats nous indiquant environ 15/20 IOPS pour une seule VM (Server 2008 R2). Cela me parait peu aux vues du poste précédent qui indiquait cet ordre de grandeur pour un seul utilisateur. Qu'en pensez-vous ?

 

C'est souvent une moyenne au repos :D, mais a vrai dire pour avoir de vrais valeurs sur les iops requis pour un serveur donné,il faut l'analyser sur une bonne durée afin de voir les pics d'E/S nécessaire à un instant T.
Si tu commences à mettre du exchange etc.... il faut calculer le nombre d'utilisateurs,connections possible sur celui-ci , pareil pour du sql etc.......
C difficilement chiffrable . Et ça doit se faire au cas par cas .


Message édité par statoon54 le 08-03-2012 à 16:06:18
Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed