[HFR] Actu : GTC: Quelques détails de plus sur le GPU Pascal

Actu : GTC: Quelques détails de plus sur le GPU Pascal [HFR] - HFR - Hardware

Marsh Posté le 28-03-2014 à 02:20:01   1  

Durant la GTC, nous avons pu poser quelques questions à Nvidia et en apprendre un peu plus sur le GPU Pascal qui a été introduit entre les générations Maxwell ...
Lire la suite ...

Reply

Marsh Posté le 28-03-2014 à 02:20:01   

Reply

Marsh Posté le 28-03-2014 à 03:38:09   4  

Article écrit depuis les US ? :D

Reply

Marsh Posté le 28-03-2014 à 09:50:42   0  

Citation :

'ensemble NVLink pourra atteindre entre 80 et 200 Go/s.


Quand vous dites ensemble, c'est pour les 8bit de chaque nvlink, ou tous les nvlink cumulés??
C'est énorme ces débits pour un bus externe http://forum-images.hardware.fr/icones/smilies/ouch.gif

 

Sinon, pourquoi NV ne rachèterait pas la division semi-conducteur d'IBM, ça leur donnerait un avantage indéniable que ce soit pour les usines ou les CPU server.


Message édité par Profil supprimé le 28-03-2014 à 09:56:12
Reply

Marsh Posté le 28-03-2014 à 10:01:21   2  

theblackpearl a écrit :

Article écrit depuis les US ? :D


 
 :jap:

Reply

Marsh Posté le 28-03-2014 à 11:00:16   4  

Merci beaucoup Damien pour les divers articles que tu viens de publier.
De la grosse qualité.

Reply

Marsh Posté le 28-03-2014 à 11:13:24   0  

connecteur mezzanine, ça me fait penser au iMAC G3, ils avaient un connecteur mezzanine, il me semble.

Reply

Marsh Posté le 28-03-2014 à 11:14:47   0  

*poke mac pro :D

Reply

Marsh Posté le 28-03-2014 à 11:32:14   0  

Le connecteur mezzanine ça se voyait aussi sur des cartes sons (pour une carte fille synthétiseur midi wavetable!) ou sur certaines cartes graphiques (pour doubler la RAM)
 
Sinon c'est utilisé dans l'embarqué : PC/104, Arduino ou plus récemment sur cartes Tegra K1, Tegra "automotive".

Reply

Marsh Posté le 28-03-2014 à 11:36:01   0  

Ce type de connecteur est très usité niveau serveurs blade.
Mais bon, 300W au train, c'est pas courant comme truc et ça va demander un agencement/cooling particulier :D

Reply

Marsh Posté le 28-03-2014 à 11:45:47   2  

Je t'invite à regarder ce truc  
 
http://www.theregister.co.uk/Print [...] pc_server/
http://regmedia.co.uk/2009/11/26/power7_switch_packages.jpg
 
Un module quatre CPU, 800 watts!


Message édité par blazkowicz le 28-03-2014 à 11:47:49
Reply

Marsh Posté le 28-03-2014 à 11:45:47   

Reply

Marsh Posté le 28-03-2014 à 12:02:16   0  

Ça passe pas dans une blade ce truc  :o  
Le matos PowerPC est très spécifique, ça c'est sûr. 800W, ça pique sévère effectivement [:aurelien_fr]
Le partenariat avec IBM commence à montrer ses fruits en tout cas.

Reply

Marsh Posté le 28-03-2014 à 12:03:47   0  

Invite_Surprise a écrit :

Ça passe pas dans une blade ce truc  :o  
Le matos PowerPC est très spécifique, ça c'est sûr. 800W, ça pique sévère effectivement [:aurelien_fr]
Le partenariat avec IBM commence à montrer ses fruits en tout cas.


 
Bah si, c'est du bluegene standard quoi, j'en vois tout les jours dans mon boulot :x

Reply

Marsh Posté le 28-03-2014 à 12:28:59   2  

Le Blue Gene c'est des petits cores CPU, c'est comme la différence entre AMD Jaguar et FX.
 
Je doute qu'ils aillent fiche des nvidia dans les blades. D'ailleurs les blades, je vois pas trop à quoi ça sert à part se faire couillonner/vendor-loquer. Autant empiler des 1U.

Reply

Marsh Posté le 28-03-2014 à 12:31:53   2  


 
je doute qu'il en aient les moyens, c'est pas un ex leader de la 3d en déroute IBM.

Reply

Marsh Posté le 28-03-2014 à 13:30:15   0  

jumorolo a écrit :


je doute qu'il en aient les moyens, c'est pas un ex leader de la 3d en déroute IBM.


Sauf qu'IBM cherche à revendre sa division semi-conducteur et que je ne vois pas les autorités américaines la laisser partir dans les mains d'étrangères (contrats militaires toussa).
Quelles entreprises américaines pourraient l'acheter??
Micron, TI, Qualcomm, Broadcom? Business trop différent.
 
Intel? Les autorités de régulation ne l'autoriseraient pas à cause du monopole dans le domaine des CPU serveur.
 
AMD, n'en parlons même pas.
 
Nvidia? -Même si ils ont pris le cap vers les CPU ARM, j'imagine que dans le domaine des serveurs haute performance les PowerPC seront encore longtemps plébiscité. Et pour les usines c'est une opportunité unique de ne plus dépendre du même fabricant que tous ses concurrents que ce soit au niveau GPU ou SOC (TSMC).
Alors certes ca va coûter cher, néanmoins NV n'est pas endetté, et ils pourraient se limiter en racheter que 51% le reste restant dans les mains d'IBM.
 
Mais je l'accorde c'est peu probable.


Message édité par Profil supprimé le 28-03-2014 à 13:30:33
Reply

Marsh Posté le 28-03-2014 à 14:00:50   0  

Soa clairement là j'y crois pas une seconde

Reply

Marsh Posté le 28-03-2014 à 14:01:15   0  

bon cru cette année la GDC/GTC  , particulièrement riche en annonces intéressantes :jap:  
Un grand merci à HFR et à Damien pour tous ces comptes rendus :)

Reply

Marsh Posté le 28-03-2014 à 14:03:33   0  

blazkowicz a écrit :

Je doute qu'ils aillent fiche des nvidia dans les blades. D'ailleurs les blades, je vois pas trop à quoi ça sert à part se faire couillonner/vendor-loquer. Autant empiler des 1U.


Chassis 10U -> 16 blades
Tu gagnes de la place quand même dans ton rack et quand t'as beaucoup de matos, de partenaires t'es vendor-lock de facto.
Mais bon je pense que tu as raison, ça va plus partir sur des équipements spécifiques.
Comme dit le tridam, ça promet une belle baston avec Xeon Phi cette histoire.

Reply

Marsh Posté le 28-03-2014 à 14:29:41   0  

Pardonnez moi si la réponse est dans l'article mais je ne la vois pas :
Le débit est fort impressionnant certes, mais qu'en est-il de la latence ?
Il me semble que cet aspect est aussi important dans ce cas précis.

Reply

Marsh Posté le 28-03-2014 à 14:41:31   1  

@SOA
Vous avez oubliez un acteur qui a déjà fait des acquisitions dans le domaine : Apple.
Certes, cette société n'a pas la quotte dans la population HFR, mais si l'on s'intéresse à son histoire, on peut se poser la question. Elle a toujours travaillé sur les CPU les chipsets, et bien d'autres composants. Partenaires pendant au minimum une décennie, puis fracture, rien n'empêcherait cette acquisition (reste aux US; cas similaire déjà effectué par PA-SEMI; Apple dispose des fonds; ...).
Mais je ne miserai pas dessus, pour d'autres raisons bien trop longues pour les évoquer ici.

Reply

Marsh Posté le 28-03-2014 à 15:51:59   1  

Moi ce qui m'étonnes le plus c'est que des grands chefs de Nvidia se soient réunis dans un bureau, y'en a un qui a dit "on vas l'appeler Pascal" et les autres on dis "ouais on valides! " ^^ . J'ai hate de découvrir le gpu 2015: "Jacquie-Michel" :p

Reply

Marsh Posté le 28-03-2014 à 15:54:57   0  

blazkowicz a écrit :

D'ailleurs les blades, je vois pas trop à quoi ça sert à part se faire couillonner/vendor-loquer. Autant empiler des 1U.


Ta culture coté serveur laisse a désirer. On met plus de blades (1,3x) dans un rack que d'emplacement U. Deuxième avantage pour les blades, chaque lame peut mutualiser certaines ressources comme les alimentations, les entrées sorties, ou le refroidissement par exemple. Dans une unité U, chaque boitier est une unité indépendante.

Reply

Marsh Posté le 28-03-2014 à 15:56:52   0  

jinxjab a écrit :

Vous avez oubliez un acteur qui a déjà fait des acquisitions dans le domaine : Apple.


Faudrait d'abord qu'ils rapatrient leurs liquidités aux USA avant de concevoir un tel achat. Et rien que ça leur coûtera deux bras. Hypothèse exclue.

Reply

Marsh Posté le 28-03-2014 à 16:50:22   0  

Et sinon pour les jeux ça représente des gains conséquent en perspective? Des démo sont prévues prochainement? Et AMD en dit quoi de tout ça, pourquoi ce silence assourdissant?

Reply

Marsh Posté le 28-03-2014 à 16:52:59   0  

@singman
"Hypothèse exclue" exactement le résultat de mon raisonnement. Mais pas par une argumentation simpliste. Certes non exposée car trop de données à compiler pour ce sujet. Bref HS !
Pour la question des masses monétaires accumulées hors des US (et non liquidités), je ne pense pas que cela soit bloquant, au pire astreignant, oui.
 
Personne pour m'orienter sur les latences induites par la solution NVLink? Ou un comparatif théorique?

Reply

Marsh Posté le 28-03-2014 à 16:57:28   0  

sasuke87 a écrit :

Et sinon pour les jeux ça représente des gains conséquent en perspective? Des démo sont prévues prochainement? Et AMD en dit quoi de tout ça, pourquoi ce silence assourdissant?


Comparé à Intel ou nVidia, AMD semble avoir plus de mal pour se projeter dans le futzur.
Ils ne se tentent pas vraiment à la publication de roadmap publique sur plusieurs années.

Reply

Marsh Posté le 28-03-2014 à 17:40:29   0  

jinxjab a écrit :

Personne pour m'orienter sur les latences induites par la solution NVLink? Ou un comparatif théorique?


Tous ces bus HT/QPI et probablement NVLink avec accès à la mémoire des CPU qu'ils interconnectent sont pensés pour avoir le moins de latence possible.
Bref l'overhead doit être réduit sur ce genre de bus. Ils le disent bien que énergétiquement il est plus économe que le PCIe, c'est qu'il doit être moins bavard ce NVLink.


Message édité par le 28-03-2014 à 17:42:06
Reply

Marsh Posté le 28-03-2014 à 17:48:47   1  

jellyboy74 a écrit :

Moi ce qui m'étonnes le plus c'est que des grands chefs de Nvidia se soient réunis dans un bureau, y'en a un qui a dit "on vas l'appeler Pascal" et les autres on dis "ouais on valides! " ^^ . J'ai hate de découvrir le gpu 2015: "Jacquie-Michel" :p


 
On s'en bien la culture tv-réalitée... c'est désolant.
 
>> http://fr.wikipedia.org/wiki/Blaise_Pascal
 
ne me remercie pas c'est gratuit ;-)

Reply

Marsh Posté le 28-03-2014 à 19:03:52   2  

fredno a écrit :

jellyboy74 a écrit :

Moi ce qui m'étonnes le plus c'est que des grands chefs de Nvidia se soient réunis dans un bureau, y'en a un qui a dit "on vas l'appeler Pascal" et les autres on dis "ouais on valides! " ^^ . J'ai hate de découvrir le gpu 2015: "Jacquie-Michel" :p


 
On s'en bien la culture tv-réalitée... c'est désolant.
 
>> http://fr.wikipedia.org/wiki/Blaise_Pascal
 
ne me remercie pas c'est gratuit ;-)


 
Et toi on senT bien ton parcours scolaire(du verbe sentir)  
 
www.besherelle.com
 
Ne me remercie pas c'est gratuit ;-)

Reply

Marsh Posté le 28-03-2014 à 19:08:55   0  

J'étais sûr que quelqu'un allait lui tomber dessus avec cette vilaine faute :d

Reply

Marsh Posté le 28-03-2014 à 19:15:54   0  

jellyboy74 a écrit :

fredno a écrit :

[quotemsg=9103275,11,915467]Moi ce qui m'étonnes le plus c'est que des grands chefs de Nvidia se soient réunis dans un bureau, y'en a un qui a dit "on vas l'appeler Pascal" et les autres on dis "ouais on valides! " ^^ . J'ai hate de découvrir le gpu 2015: "Jacquie-Michel" :p


 
On s'en bien la culture tv-réalitée... c'est désolant.
 
>> http://fr.wikipedia.org/wiki/Blaise_Pascal
 
ne me remercie pas c'est gratuit ;-)


 
Et toi on senT bien ton parcours scolaire(du verbe sentir)  
 
www.besherelle.com
 
Ne me remercie pas c'est gratuit ;-)[/quotemsg]
 
Plus sérieusement, les GPU Nvidia ont toujours des noms de physiciens. Comme Maxwell (4 équations de Maxwell pour l'électromagnétisme), Kepler (lois sur l'astronomie), Pascal (pression atmosphérique), Volta (piles), Fermi (nucléaire), etc.

Reply

Marsh Posté le 28-03-2014 à 19:26:46   0  

sasuke87 a écrit :

J'étais sûr que quelqu'un allait lui tomber dessus avec cette vilaine faute :d


 
Autant je peu comprendre qu'il n'ai pu saisir mon second degré, autant m'attaquer sur ma culture avec une faute aussi vulgaire ne pouvais rester impuni. (tout en sachant que comme tout le monde je fait des fautes mais jamais aussi énormes)  
 
Je sais très bien que Nvidia utilise des noms de Physiciens pour ses technologies.


Message édité par jellyboy74 le 28-03-2014 à 19:28:38
Reply

Marsh Posté le 28-03-2014 à 19:32:14   2  


Tous ces bus HT/QPI et probablement NVLink avec accès à la mémoire des CPU qu'ils interconnectent sont pensés pour avoir le moins de latence possible.
Bref l'overhead doit être réduit sur ce genre de bus. Ils le disent bien que énergétiquement il est plus économe que le PCIe, c'est qu'il doit être moins bavard ce NVLink.[/quotemsg]
 
Raté, un bus type NUMA (comme le NVlink ou le QPI) induit plus de latences qu'un bus système point point, même si il garde l'avantage du débit, justement a cause de la cohésion de la mémoire a vérifier, c'est masqué par le débit monstrueux mais c'est un problème dans le développement HPC : l'architecte doit connaitre avec exactitude les latences pour organiser lui même les threads et au besoin réorganiser le clust pour des tasks précises (même si maintenant il y a des autotool dans le scheduling qui permet d'avoir des profiles préchargés)
 

blazkowicz a écrit :

Le Blue Gene c'est des petits cores CPU, c'est comme la différence entre AMD Jaguar et FX.
 
Je doute qu'ils aillent fiche des nvidia dans les blades. D'ailleurs les blades, je vois pas trop à quoi ça sert à part se faire couillonner/vendor-loquer. Autant empiler des 1U.


 
Si tu savais ... On trouve de tout dans une blade. Et c'est pas des contacteurs nvidia, c'est des contacteurs mezzanine.
http://regmedia.co.uk/2010/11/19/i [...] module.jpg
Et t'en vois ici, sur une carte blue gene/Q
Blue gene c'est pas qu'un type de CPU, en fait tout se qui est sur archi power + torus + NUMA, avec un branding IBM est du blue gene. Et un CPU power, c'est pas un "petit" core :/

Reply

Marsh Posté le 29-03-2014 à 00:30:05   1  

Oui du coup les blades c'est utilisé pour du matériel spécifique, très dense etc.
 
Je maintiens que c'est des petits cores :o, mais ils sont nombreux.
 
 

Citation :

The Blue Gene/Q Compute chip is an 18 core chip. The 64-bit PowerPC A2 processor cores are 4-way simultaneously multithreaded, and run at 1.6 GHz. Each processor core has a SIMD Quad-vector double precision floating point unit (IBM QPX). 16 Processor cores are used for computing, and a 17th core for operating system assist functions such as interrupts, asynchronous I/O, MPI pacing and RAS. The 18th core is used as a redundant spare, used to increase manufacturing yield. The spared-out core is shut down in functional operation. The processor cores are linked by a crossbar switch to a 32 MB eDRAM L2 cache, operating at half core speed.


(...)

Citation :


The chip also integrates logic for chip-to-chip communications in a 5D torus configuration, with 2GB/s chip-to-chip links. The Blue Gene/Q chip is manufactured on IBM's copper SOI process at 45 nm. It delivers a peak performance of 204.8 GFLOPS at 1.6 GHz, drawing about 55 watts. The chip measures 19×19 mm (359.5 mm²) and comprises 1.47 billion transistors.


 
Le POWER7 lui est à 567mm² pour 8 cores à ~4GHz. Le POWER8 (12 cores) est un monstre, 650mm² :lol:

Reply

Marsh Posté le 29-03-2014 à 00:36:34   0  

D'ailleurs je trouve que la Wii U aurait pu utiliser des cores qui vont dans les CPU pour bluegene, mais au lieu de ça ils ont voulu un dérivé de la vieillerie des Gamecube/Wii qui remonte aux années 90 (la famille PowerPC 750), pour rester compatible avec la Wii.

Reply

Marsh Posté le 29-03-2014 à 09:10:08   2  

Power7 : 1.2 milliards de transistors, juste en logique sans les caches ni rien autour, t'appel ça du petit core ? o_O
Chez IBM 1 core = 1 core, si t'en a 4/8/12, tu multiplie les transistors par le nombre de cores hein ... Sans compter les packages MCM en mezza suivant les options, tu peut avoir un package power7 (1.8M transistors en logique) * 8 cores * 4 procos. L'archi étant scalable quasiment a l'infini (vive la crossbar et l'infra numa au cul) tu peu avoir un package MCM en power 7 quasi custom avec un data cache sur package très très très véloce ...
 
[HS]Pour la gamecube/wii/wiiU, c'est pas un processeur des années 90, mais un processeur type G3 fin des années 90, la nuance est grosse chez IBM, 97 pour être précise (gamecube) avec des évolutions avec intégration de technologies dérivées power, en fait, on est certains que gekko était un processeur type G3, pour broadway on est moins sur (intégration de SMT, archi OOO, et bouts de code intégrants des instructions non supportées en G3 même avec ALU spécifique), pour Espresso, on en sait encore moins :O [/HS]
 
Et la division CPU d'ibm vaut a elle seule, en comptant les actifs et les brevets plus que NVIDIA au total.

Reply

Marsh Posté le 29-03-2014 à 10:06:45   0  

J'appelle les PowerPC A2, Bluegene etc. des processeurs à petits cores ; les POWER7 ont eux des gros cores, oui.
euh si les 1.2 milliard de transistors incluent 32Mo de L3, et les L2, les L1.
Je crois que t'inventes des trucs sur le Broadway, rien n'indique qu'il est différent de Gecko et d'ailleurs Gecko est OOOE tout comme le G3. Après je suis sûr qu'on trouve de tout sur internet, fantasmé par des gars avec des Zelda/Link/Triforce en avatar.
 
Les Gecko, Broadway et aussi Espresso (fabriqué sur ordre on pourrait dire) ont les "paired singles", un SIMD à deux dimensions qui est comparé au 3DNow!.


Message édité par blazkowicz le 29-03-2014 à 10:19:29
Reply

Marsh Posté le 29-03-2014 à 12:38:56   2  

le G3 est pas totalement OOO (juste l'ALU)
750CL l'est (= Broadway) et il a des instructions SIMD, pour moi, je trouve pas que 750CL=750, niveau puissance y'a quand même un gouffre (clock to clock), pour le SMT si je me fie aux datasheet IBM, le 750CL avale 4 instructions/cycle, peu en résoudre 2, et en même temps en charger deux autres, donc c'est du SMT, chose que ne possède pas les G3 "classiques" et je me base pas sur des "on dit" mais sur https://www-01.ibm.com/chips/techli [...] 009dft.pdf (section features)
 
Espresso, vue qu'il y a pas de CPU correspondant chez IBM, on en sait rien (au moins un niveau équivalent a broadway, très certainement un 4*4 niveau SMT au lieu d'un 4*2 et instructions SIMD étendues ?)
 
Pour les core je vérifie <_< (un coup on parle du nombre de transistors total avec l'eDRAM du MCM, on coup on parle core avec L1+L2 uniquement sans intégrer le L3 qui est forcément externe sur power7, bref o_O)
Sinon une chose est certaine : le SMT aide clairement a masquer les latences d'un bus comme NVlink et vue que de plus en plus les cores d'un GPU sont fait pour traiter plusieurs instructions par cycle :O

Reply

Marsh Posté le 31-03-2014 à 09:00:22   1  

Vous etes d'un ennui entre les reproches sur les fautes de grammaire et les batailles sur les CPU IBM... Tout ça pour une simple nouvelle sur le prochain GPU NVidia. Et personne pour commenter la nouvelle vision du SLI...

Reply

Marsh Posté le 31-03-2014 à 09:13:42   0  

probablement parce que le nvlink et le sli n'ont rien de commun.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed