Comparaison perfs SAN / NAS / DD internes ?

Comparaison perfs SAN / NAS / DD internes ? - Stockage - Systèmes & Réseaux Pro

Marsh Posté le 27-10-2011 à 12:14:16    

Bonjour,
 
Je recherche une doc ou un site ou une étude qui décrirait les différences de performances (et éventuellement les avantages / inconvénients) des différentes solutions de stockages (et leurs interfaces de rattachement) :
- local (en SATA, SSD, SAS, et en RAID etc ...)
- SAN (en iSCSI / FC / etc ...)
- éventuellement NAS (mais je pense que c'est au mieux entre les 2 solutions, car même attachement que le SAN ... par le réseau)
 
Par exemple : xx HDD SAS xx Tr/min en RAID 5 (ou RAID 6, 10, etc) = xx Mo/s (ou Go/s) // SAN en iSCSI avec 4 ports 10Gbits = xx Mo/s (ou Go/s)
 
Ceci afin de savoir ce qui serait le + rapide / performant pour une infra de qq serveurs physiques en cluster avec des serveurs virtualisés dedans (sûrement en Hyper-V) ... et savoir si je mets un petit SAN ou des HDD locaux ... actuellement, mon impression est que pour qq serveurs de Hosts (2, 3, 4 machines physiques), j'aurais de meilleures perfs avec des HDD locaux (mais je ne connais pas trop les débits ni pour le RAID ni pour le SAS et encore moins les 2 :) ) ... alors que le SAN, même avec plusieurs ports en Gbits (en théorique, mais je ne sais pas ce que ça donne en vitesse réelle / en pratique), sera mutualisé et moins performant.
 
Sinon, si vous avez juste une règle de calcul je veux bien aussi. Ceci pour savoir les IOPS réelles possibles par ces technos :)
 
Merci de votre aide :)

Reply

Marsh Posté le 27-10-2011 à 12:14:16   

Reply

Marsh Posté le 27-10-2011 à 12:59:37    

si tu utilises les disque locaux et que tu utilisent une infrastructure virtualisé ce n'est pas une bonne option.
Mieux vaut un SAN, ça te permet de faire une baisse de cout grace à la mutualisation. tu ne pourras pas faire de Vmotion (changement de vm entre les hosts)


---------------
je veux tout, tout de suite, et gratuitement ! miladiou !
Reply

Marsh Posté le 27-10-2011 à 13:27:37    

c'est bien plus complexe que cela, car ca dépend du contrôleur de disques, de la taille du cache, des disques, et pour les NAS/SAN du constructeur et du produit
 
l'intérêt d'acheter chez un constructeur spécialisé en stockage NAS/SAN cela n'est pas que pour les fonctionnalités software (réplication, snapshots, etc.) mais également pour tous les optimisations apportées pour tirer au maximum les perfs des disques durs mécaniques (placement de données, profil d'application..) et depuis un petit moment des disques SSD
 
sinon tu peux tenter de faire des simulations en cherchant "IOPS calculator" sur google, mais cela reste théorique

Reply

Marsh Posté le 27-10-2011 à 15:13:23    

http://communities.vmware.com/thread/73745
 
c'est un post ou les gens inscrivent les résultats de leurs plateforme  
ça peut te donner des idées / indications

Reply

Marsh Posté le 27-10-2011 à 15:21:35    

Merci pour vos réponses.
 
skoizer : je n'ai pas de pb de coûts. C'est uniquement pour avoir les meilleures perfs / débits / IOPS max.
 
couak : OK (contrôleur, cache, disques, etc), mais je voulais un ordre d'idées ... parce que je doute des perfs des SAN (parce que même avec des ports 10Gb, je ne pense pas qu'on atteint du 100% de bande passante)

Reply

Marsh Posté le 27-10-2011 à 16:36:01    

tu fais fausse route il n'y a pas que la bande passante qui entre en jeu dans l'utilisation d'un stockage
 
je te renvoie à un post que j'avais écrit : http://forum.hardware.fr/forum2.ph [...] s=0#t80381

Reply

Marsh Posté le 27-10-2011 à 17:48:50    

OK ... j'ai tout lu :)
 
Bon, bah je suis pas + avancé dans mes choix :(
 
J'aurais bien voulu un ordre d'idée :( pour comparer entre un SAN et des HDD
 
Merci qd mm pour vos réponses :)

Reply

Marsh Posté le 27-10-2011 à 19:27:18    

Et faut aussi voir qu'un SAN/NAS c'est du stockage partagé. Si tu montes une infra de virtualisation, tu as peut être envie de faire du clustering pour rendre tes VM hautement disponibles ou pour déplacer rapidement une vm d'un host à un autre et ça seul un SAN/NAS peut te le permettre. Si tes VM sont en locales, pour bouger, faut copier par le réseau les fichiers et pas de haute dispo

Reply

Marsh Posté le 27-10-2011 à 21:01:41    

egillescom a écrit :

OK ... j'ai tout lu :)
 
Bon, bah je suis pas + avancé dans mes choix :(
 
J'aurais bien voulu un ordre d'idée :( pour comparer entre un SAN et des HDD
 
Merci qd mm pour vos réponses :)


ce n'est pas comparable comme cela, car cela dépend du matériel, des constructeurs, de l'environnement, etc.
 
mais si tu y tiens réellement voilà des tests que j'ai mené sur :
 
1) Dell MD1200 : Tiroir de 12 disques SAS 7200 RPM en RAID5 connecté en SAS 6Gb/s avec un contrôleur RAID possédant 512Mo de cache
C'est l'équivalent d'un bon DAS et théoriquement avec autant de disques le nombre d'IOPS doit être élevé
Sur le châssis d'un serveur, tu auras rarement la possibilité de mettre autant de disques
http://img594.imageshack.us/img594/1584/md1200.gif
Pour ce qui est de la lecture/écriture séquentiel à 800Mo/s je pense que c'est une erreur sûrement dû à des reste en cache
 
2) Hitachi AMS : Baie SAN mid-range avec des disques SAS 15000 RPM, et des connecteurs FC 8Gb/s en front-end
Je me suis contenté de faire un pauvre RAID5 avec 6 disques et j'obtiens de bien ,meilleures perfs
http://img406.imageshack.us/img406/2864/amsraid51.png
 
3) Hitachi AMS : l'intérêt de ce SAN, c'est qu'il est possible d'agréger des RAID dans un pool commun et de répartir les données dans ce pool. Du coup les performances augmentent sensiblement grâce à la somme totale des disques. Pour ce test j'ai fais un groupe composé de 2 RAID6 en 8+2 (soit 20 disques au total)
http://img521.imageshack.us/img521/7595/amsraid682.png
Là y'a pas photo, en mode séquentiel je n'ai pas réussi à aller plus vite que la connectique de mon serveur (2 liens FC 8Gb/s) et j'ai atteint quasiment 1,6Go/s
Avec 20 disques j'ai presque 10.000 IOPS. Je n'ai plus les résultats des tests sur une Baie Dell Equallogic mais pour atteindre ce chiffre j'ai bien dû mettre 30 disques


Message édité par couak le 27-10-2011 à 21:13:55
Reply

Marsh Posté le 30-10-2011 à 02:24:56    

Tu peux également voir ce que donne les perfs en ZFS
=> http://www.anandtech.com/show/3963 [...] hmarking/8
 
++


---------------
[VDS] HDD SAS 15k, GPU, 4u 24x Hot Swap
Reply

Marsh Posté le 30-10-2011 à 02:24:56   

Reply

Marsh Posté le 08-11-2011 à 14:08:57    

egillescom a écrit :

Bonjour,
 
Je recherche une doc ou un site ou une étude qui décrirait les différences de performances (et éventuellement les avantages / inconvénients) des différentes solutions de stockages (et leurs interfaces de rattachement) :
- local (en SATA, SSD, SAS, et en RAID etc ...)
- SAN (en iSCSI / FC / etc ...)
- éventuellement NAS (mais je pense que c'est au mieux entre les 2 solutions, car même attachement que le SAN ... par le réseau)
 
Par exemple : xx HDD SAS xx Tr/min en RAID 5 (ou RAID 6, 10, etc) = xx Mo/s (ou Go/s) // SAN en iSCSI avec 4 ports 10Gbits = xx Mo/s (ou Go/s)
 
Ceci afin de savoir ce qui serait le + rapide / performant pour une infra de qq serveurs physiques en cluster avec des serveurs virtualisés dedans (sûrement en Hyper-V) ... et savoir si je mets un petit SAN ou des HDD locaux ... actuellement, mon impression est que pour qq serveurs de Hosts (2, 3, 4 machines physiques), j'aurais de meilleures perfs avec des HDD locaux (mais je ne connais pas trop les débits ni pour le RAID ni pour le SAS et encore moins les 2 :) ) ... alors que le SAN, même avec plusieurs ports en Gbits (en théorique, mais je ne sais pas ce que ça donne en vitesse réelle / en pratique), sera mutualisé et moins performant.
 
Sinon, si vous avez juste une règle de calcul je veux bien aussi. Ceci pour savoir les IOPS réelles possibles par ces technos :)
 
Merci de votre aide :)


 
Je suis pas tout a fait d'accord ...
Tu peux toujours faire du FCoE mais bon c'est pas la phylosophie premiere du SAN
SAN = reseau dedier mais rien a voir avec un protocole ethernet classique ...


Message édité par Talisker le 08-11-2011 à 14:38:26
Reply

Marsh Posté le 08-11-2011 à 20:46:06    

Comment ça Talisker ? Je parle "d'ethernet" parce que c'est le moyen de rattacher le NAS sur les serveurs ... que peut-on utiliser selon toi pour l'interco, autre que des liens ethernet ?
(aussi, cela permet de connaitre précisément la bande passante par le nombre de ports et le débit du port : 1x 2x 3x 4x etc 1Gbits, 10Gbits, etc)
 
De toute façon, je vais bien voir, on va recevoir des serveurs UCS Cisco et des baies NetApp en prêt la semaine prochaine :)

Reply

Marsh Posté le 08-11-2011 à 22:04:37    

egillescom a écrit :

Comment ça Talisker ? Je parle "d'ethernet" parce que c'est le moyen de rattacher le NAS sur les serveurs ... que peut-on utiliser selon toi pour l'interco, autre que des liens ethernet ?


 
De l'infiniband ?

Reply

Marsh Posté le 08-11-2011 à 23:02:36    

je te reprends car tu dit que le SAN a le meme type de connections reseau que le NAS ...
 
oui le NAS c'est de l'ethernet, non le SAN ce n'en est pas, c'est du Fibre Channel ...

Reply

Marsh Posté le 08-11-2011 à 23:12:25    

ou de l'ethernet

Reply

Marsh Posté le 08-11-2011 à 23:14:00    

ou de l'infiniband :D


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 08-11-2011 à 23:14:04    

... et même du fiber channel encapsulé dans de l'ethernet

Reply

Marsh Posté le 08-11-2011 à 23:17:32    

Ah bon ? ça ne peut être que du Fibre Channel pour que l'on puisse utiliser le terme de SAN ? (perso, je n'y connais rien, mais comme le commercial m'a parlé de liaison 10Gbits, j'ai pensé que c'était de l'ethernet 10Gbits)

Reply

Marsh Posté le 08-11-2011 à 23:21:43    

Au fait : merci Couak pour tes tableaux :)
Je n'ai pas tout compris, mais globalement, tu arrives à de meilleures perfs (quasi le double) sur ta baie qu'en interne avec "seulement 2 connexions FC 8Gb"
 
Je me demande quand même ce que ça va donner avec une centaine de VM sur nos serveurs à + de 150 cores  avec 4 liaison de 10Gb ...

Reply

Marsh Posté le 08-11-2011 à 23:24:32    

pas du tout, on parle de SAN quand on monte un réseau de stockage, et de NAS quand on monte un stockage en réseau
 
une des conséquences est qu'avec un SAN on présente en général aux serveurs des volumes en mode bloc, et qu'avec un NAS on présente des services réseaux comme un serveur de fichiers
 
après il peut y avoir plusieurs type de connectique sur un SAN : fiber channel pour transporter du SCSI, iSCSI avec des RJ45 cuivre pour transporter du SCSI en IP...
 
Pour le NAS, comme il est connecté directement au réseau, bah le plus simple est de lui mettre la connectique de ton réseau, et comme en général on met de l'ethernet la conséquence immédiate est d'avoir un NAS connecté en ethernet


Message édité par couak le 08-11-2011 à 23:28:42
Reply

Marsh Posté le 08-11-2011 à 23:38:25    

egillescom a écrit :

Au fait : merci Couak pour tes tableaux :)
Je n'ai pas tout compris, mais globalement, tu arrives à de meilleures perfs (quasi le double) sur ta baie qu'en interne avec "seulement 2 connexions FC 8Gb"
 
Je me demande quand même ce que ça va donner avec une centaine de VM sur nos serveurs à + de 150 cores  avec 4 liaison de 10Gb ...


arrête de te focaliser sur la bande passante... peu importe le nbre de VM et/ou le nbre de cores... tout dépend de ton besoin en bande passante et en IOPS (surtout en IOPS)
en général, le goulot d'étranglement dans une consolidation à outrance comme le permet la virtualisation, c'est la partie la plus lente à savoir le stockage (car les disques ont une partie mécanique, sans entrer dans l'exception du SSD)
 
Il faut tout simplement que ton stockage puisse absorber la somme des IOPS de tes VM lors du pic d'activité. Si tu veux être sûr qu'il n'y aura pas de problème de lenteur sur ton stockage, y'a pas de secret : tu fais une somme des I/O par seconde de toutes tes machines qui vont intégrer le SAN, et tu regardes si ton SAN va tenir le coup
 
Déjà rien qu'à vide, un windows server fait du 5 à 10 IOPS, alors si t'as 100 windows server t'as déjà 500 IOPS à absorber :)
Après tu peux aménager certaines tâches pour éviter de tuer ton stockage, genre ne pas lancer un scan antivirus sur tes 100 VM au même moment, ou ne pas balancer des traitements sur toutes tes base de données à la même heure...


Message édité par couak le 08-11-2011 à 23:41:17
Reply

Marsh Posté le 09-11-2011 à 10:39:59    

egillescom a écrit :

Au fait : merci Couak pour tes tableaux :)
Je n'ai pas tout compris, mais globalement, tu arrives à de meilleures perfs (quasi le double) sur ta baie qu'en interne avec "seulement 2 connexions FC 8Gb"
 
Je me demande quand même ce que ça va donner avec une centaine de VM sur nos serveurs à + de 150 cores  avec 4 liaison de 10Gb ...


 
tu as quoi aujourd’hui ? quel genre d'appli vas tu héberger sur tes VM ?  
exchange ? bdd ? tres sollicité ? application en idle a 95 % du temps ?  
 
la connectique (FC, 2, 4 , 8 ou Iscsi) te donne la bande passante ( combien de Mo tu peux passer a un instant t)
pour avoir bcp d'i/o , faut beaucoup de disques ... comme l'expliquait couak
apres , pour savoir combien de disques tu dois mettre pour avoir des perf respectables (real life dans le post vmware que je t'ai donné) faut regarder le constructeur de la baie et s'il te faut , 10 , 15, 30 , 60 disques en raid et quel type de raid)
 
ton post est intéressant , on est beaucoup a se poser des questions sur ce genre de problématique

Reply

Marsh Posté le 09-11-2011 à 15:19:34    

Merci :)
 
Le lien VM Ware, je comprends rien à leurs données :( :
 
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
TABLE OF RESULTS
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
 
SERVER TYPE: VM ON ESX 3.0.1  
CPU TYPE / NUMBER: VCPU / 1
HOST TYPE: Dell PE6850, 16GB RAM; 4x XEON 7020, 2,66 GHz, DC
STORAGE TYPE / DISK NUMBER / RAID LEVEL: EQL PS3600 x 1 / 14+2 SAS10k / R50
SAN TYPE  / HBAs : iSCSI, QLA4050 HBA
 
\##################################################################################
TEST NAME--
Av. Resp. Time ms--Av. IOs/sek---Av. MB/sek----
\##################################################################################
 
Max Throughput-100%Read........__17______..........___3551___.........___111____
RealLife-60%Rand-65%Read......___21_____..........___2550___.........____20____
Max Throughput-50%Read..........____10____..........___5803___.........___181____
Random-8k-70%Read.................____23____..........___2410___.........____19____
 
EXCEPTIONS: VCPU Util. 60-46-75-46 %;  
 
 
ça veut dire quoi  ? c'est en débit en Mo/s ?
 
 
Sinon : notre utilisation c'est une maquette de la suite complète System Center 2012 (et donc pas mal d'instances SQL Server) + des fermes Citrix XenDesktop et XenApp pour de la virtualisation de dizaines de milliers de workstations ... voila :)

Message cité 1 fois
Message édité par egillescom le 09-11-2011 à 15:47:48
Reply

Marsh Posté le 09-11-2011 à 16:11:31    

egillescom a écrit :

Merci :)
 
Le lien VM Ware, je comprends rien à leurs données :( :
 
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
TABLE OF RESULTS
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
 
SERVER TYPE: VM ON ESX 3.0.1  
CPU TYPE / NUMBER: VCPU / 1
HOST TYPE: Dell PE6850, 16GB RAM; 4x XEON 7020, 2,66 GHz, DC
STORAGE TYPE / DISK NUMBER / RAID LEVEL: EQL PS3600 x 1 / 14+2 SAS10k / R50
SAN TYPE  / HBAs : iSCSI, QLA4050 HBA
 
\##################################################################################
TEST NAME--
Av. Resp. Time ms--Av. IOs/sek---Av. MB/sek----
\##################################################################################
 
Max Throughput-100%Read........__17______..........___3551___.........___111____
RealLife-60%Rand-65%Read......___21_____..........___2550___.........____20____
Max Throughput-50%Read..........____10____..........___5803___.........___181____
Random-8k-70%Read.................____23____..........___2410___.........____19____
 
EXCEPTIONS: VCPU Util. 60-46-75-46 %;  
 
 
ça veut dire quoi  ? c'est en débit en Mo/s ?
 
 
Sinon : notre utilisation c'est une maquette de la suite complète System Center 2012 (et donc pas mal d'instances SQL Server) + des fermes Citrix XenDesktop et XenApp pour de la virtualisation de dizaines de milliers de workstations ... voila :)


dizaines de milliers ... ouaa ...
 
le gars te donne : le type de host esx, le type de stockage, le type de RAID et le type de connection
 
pour chaque test , (max bande passante lecture, real life, max bande passante moitie lecture , moitie ecriture , et puis aleatoire , je pense pour simuler bdd)
1ere colonne : latence (lowest is better)
2eme colonne : io/s
3eme colonne : debit en Mo/s
 
voila  
est ce plus clair ?  

Reply

Marsh Posté le 09-11-2011 à 17:40:04    

Ah ok !!! Merci !!! Bcp bcp + clair maintenant :) bah dis-donc, bof bof les débits ... en tout cas, merci, je vais regarder tous les tableaux alors :)
 
PS : dizaines de milliers pour la maquette :) on vise les 250.000 postes virtuels déployés chez nos clients sur 2012 :) (sur 4 clients grand-compte)

Message cité 1 fois
Message édité par egillescom le 09-11-2011 à 17:42:28
Reply

Marsh Posté le 09-11-2011 à 20:18:14    

egillescom a écrit :

Ah ok !!! Merci !!! Bcp bcp + clair maintenant :) bah dis-donc, bof bof les débits ... en tout cas, merci, je vais regarder tous les tableaux alors :)
 
PS : dizaines de milliers pour la maquette :) on vise les 250.000 postes virtuels déployés chez nos clients sur 2012 :) (sur 4 clients grand-compte)


en fait quand on te dit de ne pas te focaliser sur la bande passante mais sur les IOPS, tu t'en fous
ne viens pas demander ce qui merde sur ton infra quand tes 100 VM seront sur un stockage avec 8 liens FC 8Gb/s avec 8 HDD 7200RPM en RAID5 :non:

Reply

Marsh Posté le 09-11-2011 à 20:42:09    

quoi ? :( mais non !!! c'est pas ça :( pourquoi tu dis ça ? :'( :'( :'(
 
Je vois juste que 100Mo/s c'est pas bcp, ce sont les perfs de mon HDD Sata2 perso tout pourri à 60e.
 
Mais je ne connais pas du tout les IOPS ... donc je n'ai aucune référence :( c'est tout !
Laisse-moi le temps de digérer tout ça :)
 
Tiens, du coup : c'est quoi / combien les IOPS sur 1 HDD grand public (du style Caviar Green 1To ou un Seagate ou un Raptor) ?


Message édité par egillescom le 09-11-2011 à 20:54:11
Reply

Marsh Posté le 09-11-2011 à 21:19:06    

bah je vais pas me répéter, je te renvoie une seconde fois à un post que j'ai écrit : http://forum.hardware.fr/forum2.ph [...] s=0#t80381
 
ton disque dur de 7200RPM atteindra grand max 100 IOPS, et si tu fais tourner des VM sur ce disque tu seras content d'attendre les 5Mo/s

Reply

Marsh Posté le 10-11-2011 à 09:24:54    

disque SATA : 75 IOPS  
disque SAS : 175  
disque ssd : 50000 ? ( de 10000 a 100 000 ) suivant les modèles
on parle d’ accès concurrents aléatoires , rien a voir avec un transfert d'un fichier de 1 go à 80 Mo/s a la maison
 
ici nous avons un nas (raid DP de 10 disques SATA 7200) pour faire du stockage de fichiers mais on s'en sert pour nos esx  
résultat
Access Specification Name Read IOps Write IOps Read MBps Write MBps
Max Throughput-100%Read 2 724,7 0,0            85,1 0,0
Max Throughput-50%Read 484,1         484,1            15,1 15,1
Random-8k-70%Read          83,3          35,4             0,7 0,3
RealLife-60%Rand-65%Read 109,1        60,3             0,9 0,5
 
sur un san ibm connecté en 2gb (raid 5 de 6 disques FC 10000 trs/min)
SAN 512 ko Max Throughput-100%Read 5 326,61 0,00        166,46 0,00
SAN 512 ko Max Throughput-50%Read 1 268,49 1 264,04 39,64       39,50
SAN 512 ko Random-8k-70%Read        961,68 399,99 7,51     3,12
SAN 512 ko RealLife-60%Rand-65%Read 812,05 441,28 6,34     3,45
 

Reply

Marsh Posté le 11-11-2011 à 10:45:01    

Merci couak, mais j'ai lu et relu ton post, et je n'ai/n'avais pas trouvé ces infos.  
Je n'y connais rien, c'est nouveau pour moi (d'où mes questions) j'ai besoin de référen-tiels/ces pour comprendre ... c'est pas évident quand tu débarques !
C'est bien pour ça que j'ai posté ici ...
 
Merci pour tes explications ledub :) tout est bcp + clair pour moi désormais !
 
Je vais faire des tests la semaine prochaine ... on reçoit le matos lundi ou mardi :)

Reply

Marsh Posté le 12-11-2011 à 19:24:27    

egillescom a écrit :

Ah bon ? ça ne peut être que du Fibre Channel pour que l'on puisse utiliser le terme de SAN ? (perso, je n'y connais rien, mais comme le commercial m'a parlé de liaison 10Gbits, j'ai pensé que c'était de l'ethernet 10Gbits)


SAN :

  • Fiber Channel en 2, 4 ou 8 Gb/s ; possibilité de connecter les clients à même le stockage ou passer par un Switch FC.  
  • iSCSI en Gigabit ; possibilité de connecter les clients à même le stockage ou passer par un Switch Gigabit compatible iSCSI.  
  • 10GbE ... en fait c'est du 10Gb FCoE "Fiber over Ethernet", une sorte de iSCSI façon Fiber Channel, possible via les cartes 10GbE "intelligent" qui fonctionne en Ethernet 10GbE et FCoE ; switch ou en direct
  • Infiniband, en block comme pour le Fiber Channel ou en FCoE ; switch ou en direct

inconvénient : impossible de partager les données
 
NAS :

  • Ethernet en cuivre en ou fibre, en 10/100/1000 et 10 GbE via switch ou en direct
  • Infiniband en IP via switch ou en direct

Partage des fichiers possibles
 

Citation :

pour avoir bcp d'i/o , faut beaucoup de disques ... comme l'expliquait couak


ou ZFS avec SLOG & L2ARC sur du SSD...
 
Tu peux voir ce que ça donne : http://www.anandtech.com/print/3963
 
++


Message édité par augur1 le 12-11-2011 à 19:24:43

---------------
[VDS] HDD SAS 15k, GPU, 4u 24x Hot Swap
Reply

Marsh Posté le 13-11-2011 à 15:10:51    

"Switch Gigabit compatible iSCSI" -> dit-m'en plus sur la compatibilité iSCSI, je suis curieux ...
"en fait c'est du 10Gb FCoE "Fiber over Ethernet", une sorte de iSCSI façon Fiber Channel" .. oh oui, je suis Fan de cette explication incompréhensible ...
 
Finalement, la démocratisation des SAN n'est peut-etre pas une si bonne chose ...

Reply

Marsh Posté le 13-11-2011 à 15:48:02    

+1 :/

Reply

Marsh Posté le 13-11-2011 à 16:00:27    

trictrac a écrit :

"Switch Gigabit compatible iSCSI" -> dit-m'en plus sur la compatibilité iSCSI, je suis curieux ...
"en fait c'est du 10Gb FCoE "Fiber over Ethernet", une sorte de iSCSI façon Fiber Channel" .. oh oui, je suis Fan de cette explication incompréhensible ...
 
Finalement, la démocratisation des SAN n'est peut-etre pas une si bonne chose ...


Switch Gigabit compatible iSCSI :

  • Port buffer memory : >512k
  • Port processing capability : < 12µs
  • Hardware flow control (802.3x)
  • Support for Jumbo frames


10Gb FCoE, je ne l'utilise pas
=> http://en.wikipedia.org/wiki/Fibre [...] r_Ethernet
 
++


---------------
[VDS] HDD SAS 15k, GPU, 4u 24x Hot Swap
Reply

Marsh Posté le 22-11-2011 à 13:00:32    

Bon en fait, là, on n'a pas encore pu tester ... on n'a pas encore réussi à interco l'UCS avec la baie NetApp ... il nous manquait les Nexus :)

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed