Actu : Premières cartes SAS 12 Gb/s chez LSI [HFR] - HFR - Hardware
Marsh Posté le 17-07-2013 à 19:19:57 0
Citation : Chaque carte serait capable d'atteindre un cumul de 1 millions d'IOPS et une bande passante de 4,8 Go/s par connecteur relié à 4 disque mais 6 Go/s au total, on note donc une limitation à ce niveau par rapport à la bande passante maximale théorique. |
Ben non ? Pourquoi ? La réponse est dans l'overhead et les pertes d'encodage.
Explication :
PCIe 3.0 x8 =
8 (nombre de lignes) x 8GT/s (vrai vitesse d'une ligne) / 8 (1GT/s = 1bit/s donc on veux les Octets nous puisqu'on parle en Octetcs) = 7.45Go/s
Sauf que le SAS est en 8b/10b soit 20% d'overhead, et sur 7.45GO, reste plus que 5.96GO/s de données utiles. CQFD non ?
Edit : correction des valeurs la con, vue qu'on par de GT pour convertir en octets et que 1ko = 1024o avec l'overhead de 1.54 ...
En gros, 8x8x10^9/8/1024/1024/1024=7.45
Marsh Posté le 17-07-2013 à 19:23:28 0
Si ça pouvait faire baisser le prix des cartes SAS 6 Gbps...
Marsh Posté le 17-07-2013 à 20:03:54 0
MysterieuseX a écrit :
|
Non, entre le HBA SAS et le contrôleur PCI Express il n'y as pas les pertes liées au codage du SAS, le protocole SAS n'est utilisé qu'entre le HBA SAS et le périphérique SAS.
Marsh Posté le 17-07-2013 à 20:41:28 0
Marc a écrit : Non, entre le HBA SAS et le contrôleur PCI Express il n'y as pas les pertes liées au codage du SAS, le protocole SAS n'est utilisé qu'entre le HBA SAS et le périphérique SAS. |
Première nouvelle qu'il y a jamais de pertes d'encodages ^^
Marsh Posté le 17-07-2013 à 21:17:49 0
Ben pourtant, si, c'est simple a comprendre.
12x8=96.
8x8=64.
Ce qui limite ici donc c'est le PCIe.
La carte "avale" réellement 63Gb/s (64Gb/s 128b/130b), soit, mais ça c'est coté PCIe. Si tu crois que la conversion en SAS se fait de manière transparente, c'est faux, la carte agrège les mots, et donc nécessairement elle convertit ses 64Gb/s 128b/130b en 64Gb/s 8b/10b. C'est le plus simple pour eux pour éviter d'augmenter les latences (et donc conserver des iops acceptables)
Marsh Posté le 17-07-2013 à 21:38:29 0
Bien sûr que c'est plus simple ainsi, et c'est ce qui explique la limitation qui est donc bien réelle par rapport à la bp maximale théorique du fait de ce choix, pour pouvoir pousser au delà LSI aurait du complexifier son HBA _ou_ passer en x16.
Donc le "Ben non" initial c'est comme le SATA3 il y a peu tiens
Marsh Posté le 18-07-2013 à 02:12:33 0
Les cartes sont destinées avant tout à être re-estampillées pour les serveurs. Le passage de 8X à 16X n'est donc pas forcement évident.
On préfère en général multiplier les cartes pour avoir de la perf / résilience plutôt que de mettre une carte qui va gérer assez de disques pour atteindre la limitation citée plus haut.
Le million d'IOPS c'est quand tout va bien, pas avec du raid6 (ou plusieurs!).
Marsh Posté le 18-07-2013 à 13:23:31 0
Marc a écrit : Bien sûr que c'est plus simple ainsi, et c'est ce qui explique la limitation qui est donc bien réelle par rapport à la bp maximale théorique du fait de ce choix, pour pouvoir pousser à 9.6 Go /s LSI aurait du complexifier son HBA _ou_ passer en x16. |
Oé, mais tu explore pas tout les rouages de ma réflexion aussi, alors forcément hein
Ceci dit, 96x80% = 76.8Gb/s (en 8b/10b), et c'est quoi qu'il arrive supérieur au 63Gb/s d'un PCIe x8, donc dans tout les cas, ils auraient pas pu monter aux 96Gb/s.
En revanche ils auraient pu monter a la limite théorique du PCIe x8, qui nécessite elle uniquement 63x120% = 75.6Gb/s (soit une conversion théorique 64Gb/s 128b/130b = 75.6 Gb/s 8b/10b) mais le surcout d'overhead a gérer dans la conversion, en conservant une limite fixée a 1M PPS (1m IOPS) est juste trop important, tu le vois bien quand tu prend l'analogie de bus point<=>point type infiniband NUMA ou autre, toute conversion te fait prendre des latences, et ou perdre du temps de compute, et ou complexifient trop le schéma, et ou te fait prendre un coût logiciel trop élevé, bref c'est une histoire de compromis. Et de toute façon, as-t'on déjà réellement vue un PCIe 3.0 x8 aller a sa vitesse théorique maximale (perso moi jamais, et pourtant j'en ai des cartes et du matos qui est susceptible de tirer)
_klesk_ a écrit : Les cartes sont destinées avant tout à être re-estampillées pour les serveurs. Le passage de 8X à 16X n'est donc pas forcement évident. |
Parle pas de raid, c'est un "HBA", un phy si tu préfère, y'a pas de gestion RAID sur cette puce. C'est fait pour monter du jbod, ou coller des SAS expander derrière pour un filer ZFS (par exemple)
Et de toute façon sur ce genre de cartes, tu va brancher du nearline SAS avec un SAS expander et l'intéressant, c'est les IOPS, pas le débit (genre sequoia)
Marsh Posté le 18-07-2013 à 22:09:07 0
Peut être un début de réponse sur la limitation ici http://thessdreview.com/our-review [...] lion-iops/
Visiblement sur 1 carte avec 12 ports peuplé, ils arrivent au mieux a 6gigos/s-500kiops et a priori, c'est bien des problèmes de latence/complexité d'ASIC qui crée un goulot
Marsh Posté le 17-07-2013 à 14:40:02 0
LSI est le premier à lancer des cartes contrôleurs SAS 12 Gb /s. Cette nouvelle norme permet d'atteindre 1,2 Go /s utiles par port en pratique (avec un codage ...
Lire la suite ...