Actu : La HBM2 Hynix en retard et moins rapide ? [HFR] - HFR - Hardware
Marsh Posté le 31-01-2017 à 11:29:12 2
Merci pour la news.
Ça fait une sacrée réduction de bande passante. C'est pas bon pour les futurs GPUs.
Marsh Posté le 31-01-2017 à 11:41:28 1
Du coup avec deux stacks on aura moins de BP que le GP102 avec un bus 384 bits et de la GDDR5X ...
Marsh Posté le 31-01-2017 à 11:41:59 8
Ah non! Pas de ce genre de news peu de temps avant la sortie présumée de Vega
Marsh Posté le 31-01-2017 à 11:42:10 2
bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit.
Marsh Posté le 31-01-2017 à 11:46:09 3
12 Go de VRAM sur une carte destinée au jeu ça n'a pas d'intérêt.
Comme l'a déjà montré l'architecture Maxwell une 980 Ti 6 Go était bien plus intéressante pour un joueur que sa grande soeur la Titan X 12 Go.
Il faudrait vraiment un GPU monstrueux pour justifier de pouvoir exploiter à bon escient autant de mémoire.
Marsh Posté le 31-01-2017 à 12:15:40 2
Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes.
AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire!
Marsh Posté le 31-01-2017 à 12:36:53 0
A force que ça traîne je vais être tenté de prendre une 1080 en solde !
Vega nonbridé va être à 600€ facile si on se fie à la sortie de la Fury X.
Marsh Posté le 31-01-2017 à 13:03:27 5
zezinho a écrit : Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes. AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire! |
Tellement d'approximations dans ce post...
HD 5xxx : GCN ? What ??
Même si la bande passant de la HBM2 est moindre, cela reste de la HBM2, donc je ne vois pas ce que vient faire l'architecture du GPU là-dedans, et de plus, je ne vois pas pourquoi AMD ne pourrait pas s'approvisionner chez Samsung...
EDIT : si tant est que la dispo ne soit réellement pas là lors de la sortie de Vega...
Marsh Posté le 31-01-2017 à 13:20:33 2
ou alors comme AMD à acheter tout la production Hynix ne peut plus en vendre à d'autre entreprises.
Marsh Posté le 31-01-2017 à 13:31:33 3
Oué, apres coup je me suis demandé s'il n'y avait pas une exclu AMD/Hynix, un peu comme les débuts de la HBM1, et donc "hors catalogue" dans un 1er temps...Ce serait plus positif deja ça
Marsh Posté le 31-01-2017 à 13:32:04 3
A chaque génération depuis CGN 3 (Tonga/Fidji) ils améliorent les aglorithmes de compression du frame buffer, nvidia ayant d'ailleurs encore de l'avance à ce niveau . Vu que Polaris a à nouveau amélioré les choses la dessus, Vega fera de même ne serait ce qu'en vu des APU intégrant Vega ... ou la bande passante est clairement limitante .
Avec 410 go/s de BP au pire des cas, y a quand même de quoi faire , surtout que par rapport à Fidji on aura eut les améliorations de Polaris et Vega pour réduire la consommation de bande passante .
zezinho a écrit : Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes. |
Heu non, la bande passante disponible pour l'instant est de 410 go/s ... Ce qui est quand même élevé . Changement d'architecture ? Non . C'est toujours la même architecture, et V10 est à un point trop avancé dans son développement pour s'amuser à modifier le controleur mémoire ...
zezinho a écrit : |
Les HD5xx étaient de très bonnes affaires, sortie 6 mois avant le GF100 consommant moins basé sur le VLIW5 très mature ... Les pilotes étaient parfaitement au point
Et quand G.C.N. est sorti avec les HD7XXX y a pas eut de soucis majeurs niveau pilotes ... Les HD69XX en VLIW 4 avait servi de laboratoire .
Omelmike a écrit : |
Clair ...
Omelmike a écrit : |
Faut voir si le GP100 ne vampirise pas toute la production HBM2 de samsung ...
Omelmike a écrit : EDIT : si tant est que la dispo ne soit réellement pas là lors de la sortie de Vega... |
V10 n'est pas encore en état de sortir de toute façon ... Après on aura peut être au pire 20 % de BP de moins que par rapport à ce qui était initialement prévu .
Marsh Posté le 31-01-2017 à 13:33:30 2
taronyu26 a écrit : 12 Go de VRAM sur une carte destinée au jeu ça n'a pas d'intérêt. |
Il vaut mieux plus que pas assez... Ceci dit, l'histoire se repete encore...
Meme si 6Go de RAM suffisent aujourd'hui, dans 2-3 ans ce sera limite et ainsi de suite.
Aujourd'hui, en jeu non modde et en 1080p tout max, on atteint facilement les 3Go. Et plus de 3.5 Go pour Far Cry Primal non modde, qui etait a l'origine de la decouverte de la supercherie de la GTX 970.
Et avec les jeux pas optimises, les 6 Go on va les atteindre facilement c'est sur.
D'ailleurs, c'est pas pour rien qu'nVidia a mis 4Go de RAM sur sa GTX 1050 Ti alors qu'il n'y en a que 2Go sur son equivalent Kepler: GTX 680.
Bien heureux celui qui a pris la version 4Go...
Meme histoire pour la GTX 750 Ti vs la GTX 480: 2Go vs 1.5Go, alors que la GTX 750Ti n'est que 90% d'une GTX 480, etc.
Idem pour la GTX 980Ti vs GTX 1060, tous deux a 6Go alors que la 980Ti est plus performante que la GTX 1060.
Pareil pour la GTX 780 Ti vs ~GTX 970 et ~RX 470, 3 Go vs 3.5Go et 4Go...
Bref, ne faites pas la meme connerie du court termiste les gens, surtout si vous ne vendez pas votre carte un an apres achat.
Pareil pour les CPUs, on disait a l'epoque qu'un Core 2 Quad ne servait a rien, alors qu'aujourd'hui...
Meme histoire pour les Core I7, celui qui a son Nehalem tiens encore la route en l'overclockant.
Alors que d'un autre cote, plein de gens changent leurs I5 2500K...
Marsh Posté le 31-01-2017 à 13:35:48 1
Crosslink a écrit : |
On parle de 8 Go minimum pour V10 dans tous les cas .
Et la consommation VRAM c'est allouée ou réllement utilisée ?
Marsh Posté le 31-01-2017 à 13:36:41 1
zezinho a écrit : Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes. |
5xxxx GCN? derniere news o_O mauvaises affaires?? voui voui, probablement
Changer la config de l'interposer etc au dernier moment? Me semble un peu farfelu, il est prévu pour 2 stacks
Marsh Posté le 31-01-2017 à 14:00:13 2
havoc_28 a écrit : [quotemsg=10057836,13,1083695] |
Reellement utilisee.
Ceci dit, 8Go ne seront pas de refus etant donne que les consoles peuvent utiliser jusqu'a 5Go de VRAM/RAM pour les jeux en 1080p30fps max sans upscaling.
De plus, les jeux sont "optimises" sur console, car les details equivalent au medium/low sur PC...
Alors mettre sur PC du 1080p au max pour 60fps avec les memes 5Go de VRAM, c'est illusoire je dirais si on veut commencer a faire du moyen terme.
Le QHD et l'UHD on en parle meme pas ^^"
Marsh Posté le 31-01-2017 à 14:04:17 1
Crosslink a écrit : |
Moyen terme ? 2 ans ? Car pour l'instant, les jeux qui saturent réellement 4 go de VRAM en 1080 sur PC . Et baisser une option ou deux c'est pas non plus la mort si la différence n'est pas non plus ultra flagrante .
Sur PC y a un truc qu'on appele option graphique qui permet de faire au mieux en fonction .
Marsh Posté le 31-01-2017 à 14:04:29 4
Crosslink a écrit : Bref, ne faites pas la meme connerie du court termiste les gens, surtout si vous ne vendez pas votre carte un an apres achat. |
Le jour où ma 980 Ti sera limitée par ses 6 Go de VRAM en jeu, alors la puce sera de toute façon larguée au niveau des performances. Si tu choisis une carte où la mémoire est bien dimensionnée vis-à-vis du GPU, il n'y a pas ce problème. La carte sera larguée dans sa globalité.
Concernant la différence i5/i7 je ne suis pas d'accord non plus. Combien de jeux exploitent vraiment à fond le SMT sur les i7 ? Un i5-2500K est encore dans la course aujourd'hui, et si l'on possède un i5-2500K, à moins d'être stupide on a prévu la carte mère nécessaire pour pouvoir faire de l'OC, auquel cas le monter un peu en fréquence permet de gagner un peu et le conserver jusqu'à ce qu'il soit vraiment limitant. Dans le cas où l'OC est impossible, encore une fois, le matos a été mal dimensionné (CPU "K", mais carte mère ne permettant pas l'OC, alimentation ou refroidissement sous-dimensionnés par exemple).
Et si un jeu sort, complètement codé avec l'arrière-train, et ne peut pas tourner convenablement sur mon i5-4670K et ma 980 Ti, alors ainsi soit-il, j'irai jouer à des jeux bien codés. Je ne risque pas de remplacer tout ça par un i7 extreme 6c/12t et une Titan X Pascal juste sous prétexte qu'il y a un jeu fini à la pisse qui ne tourne pas sur ma machine.
Marsh Posté le 31-01-2017 à 14:08:24 1
Crosslink a écrit : |
La plateforme en i7 a été plus honéreuse à l'achat que du i5 en SB . Et il y a quand même 11 à 13 % d'ipc en plus à fréquence égale entre Nehalem et Sandy Bridge à condition égale .
Marsh Posté le 31-01-2017 à 14:17:55 5
Angeluswalsh a écrit : bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit. |
Et ou tu le rajoute sur l'interposer le 3è ?
Marsh Posté le 31-01-2017 à 14:21:30 3
havoc_28 a écrit : |
A partir de 2 ans c'est plus si court terme que ca pour un GPU...
Pour les options graphiques, c'est un choix que certains ne pevent pas faire et c'est tout a fond ou rien.
J'en fait pas parti perso, fait dire qu'une carte est faite pour tout faire tourner a fond pour ensuite lui dire d'enlever 2-3 options c'est pas top.
Et comme tu l'as dit pour les 4Go de VRAM en 1080p, c'est pour l'instant, alors que je sous-entendais apres egalement
taronyu26 a écrit : [...] |
Ca c'est clairement faux.
Ex:
La GTX 780Ti qui etait la carte ultime a sa sortie n'a que 3Go de VRAM, et est equivalente en perfs a la GTX 970.
Ben la GTX 780Ti est toujours d'actualite niveau puissance (~RX 470), sauf que si la GTX 970 peine avec ses 3.5Go bah ca donne pas cher de la GTX780 Ti...
C'est exactement pareil avec ta 980Ti, elle ne sera pas larguee dans sa globalitee, mais par sa VRAM d'abord. Surtout quand elle est taillee pour du QHD...
J'ai envie de dire, ce n'est pas pour rien qu'nVidia a mis 6Go sur sa GTX 1060, qui est moins puissante qu'une 980Ti.
Dans ta logique, la GTX 1060 aurait du se contenter de 4Go de VRAM vu qu'elle est environ 10-15% plus puissante qu'une GTX 970 non ?
Pour ce qui est des CPUs, de plus en plus de jeux gerent plus de 4 Threads (HT inclus) et ce, depuis au moins 2013.
Il suffit de voir le comparo d'HFR "2, 4, 8 cores" (2014) pour s'en rendre compte, ou encore sur GameGPU.
De plus, les consoles ont 8 Threads, ce qui ne vas pas arranger les choses...
Pour le 2500K, pleins de gens le changent, a moins d'etre vraiment stupide pour pas l'OC, je vois vraiment pas ce qui pourrait les pousser a l'upgrade vers... un 6600K.
En tout cas, j'ai vu personne changer leurs I7 Nehalem ou 2600K...
Dire que tu vas jouer a un autre jeu parce qu'il est mal code releve de ta seule experience et non des autres, qui voudront quand meme jouer a ces jeux mal codes. Donc il ne faut pas generaliser ton cas et les envoyer dans le mur.
Sachant que les jeux sont de plus en plus mal codes et sont de plus en plus nombreux, tu n'y echapperas pas.
Marsh Posté le 31-01-2017 à 14:25:45 7
Marc a écrit :
|
C'est Chuck Norris qui le rajoute
Marsh Posté le 31-01-2017 à 14:28:39 2
havoc_28 a écrit : [...] |
Elle est plus onereuse a l'achat (150E + 250E pour l'I7 920), mais c'est largement rentabilise sur le long terme qu'un deuxieme rachat d'I5 Skylake en partant de Sandy Bridge ((100E + 200E SB) + (100E + 250E SK) = 650E).
Apres, je rappelle que l'I7 920 est sorti en 2008, pour un processeur qui date de presque 10 ans pour un total de 400E la plateforme, j'ai pas vu plus rentable
Sauf peut-etre, l'upgrade vers un Xeon LGA 1366 6 cores (@3.6Ghz, soit = I7 990X) qui coute pas grand chose aujourd'hui. Et qui, rivalise sans probleme avec un I7 6700, le cout de la plateforme en moins
J'avais calcule l'ecart entre Sandy Bridge et Nehalem a meme frequence, et il n'est que d'environ 7%. (cf test Broadwell-E: I7 975X vs I7 2600K).
En fait, Sandy Bridge n'a ete exceptionelle que parce qu'elle etait mieux cadencee et qu'elle montait plus haut en OC si on ne parle que de performances.
Mais ca avait son cout supplementaire...
Marsh Posté le 31-01-2017 à 14:56:45 4
Crosslink a écrit : |
150 € la carte mère en LGA 1366 ? on était à 180/190 € pour les modèles les moins chères et la plus part au dessus dans la tranche 230 à 300 € , sans oublier qu'à sa sortie en 2008 6 go de ram c'était 250 € , je m'en souviens vu que j'avais acheté un i7 920 à l'époque .
La plateforme LGA 1366 à sa sortie c'était plutôt dans les 650/700 € au minimum avec un i7 920 à 2.66 ghz (qu'on pouvait oc bien entendu) la carte mère et 6 go de ram .
Crosslink a écrit : |
http://www.hardware.fr/articles/815-22/moyenne.html
Je ne sais pas d'où tu les sorts tes 7% .
Et une comparaison encore plus directe à condition égale :
http://www.hardware.fr/articles/81 [...] 8-ghz.html
Crosslink a écrit : |
Un Tick et un Tock combiné avec fréquence atteignable niveau OC en hausse et consommation en baisse notable .
Marsh Posté le 31-01-2017 à 14:59:17 3
Entre Lynnfield et Sandy Bridge ça donnait ça : http://www.hardware.fr/articles/81 [...] 8-ghz.html
Marsh Posté le 31-01-2017 à 15:08:17 1
havoc_28 a écrit : 100 € la carte mère en LGA 1366 ? [...] en baisse notable . |
J'avais mis 150E, pas 100E. Par contre, la plate-forme est effectivement pas a 350E, mais 400E.
Effectivement ca coutait bonbon la DDR3, mais j'ai pas pris 6Go (mais 4Go) de suite car elle etait pas en parite avec la DDR2 ^^"
Apres, j'ai upgrade vers 8Go (en 2012) puis 16Go (en 2016) progressivement.
Je l'ai deja dis, les 7% je les sort du test de Broadwell-E (I7 975X vs I7 2600K):
http://www.hardware.fr/articles/94 [...] tives.html (6.8% de gain)
http://www.hardware.fr/articles/94 [...] ux-3d.html (9.2% de gain)
Soit une moyenne de 8% de gain.
Ceci dit, en prenant en compte l'ecart de frequence entre l'I7 975X et l'I7 2600K -ce dernier etant avantage d'environ 100Mhz de plus-, l'ecart tombe a 7%.
Oui c'est vrai en ce qui concerne la frequence et la conso de Sandy Bridge, mais c'est sorti en 2011, soit trois ans apres l'I7 920.
L'I7 2600K coute d'ailleurs beaucoup plus que l'I7 920. Au alentours de 300E dans mes souvenirs en 2011.
Marc a écrit : Entre Lynnfield et Sandy Bridge ça donnait ça : http://www.hardware.fr/articles/81 [...] 8-ghz.html |
Pourquoi ne pas prendre en compte un test plus recent et refletant plus la realite d'aujourd'hui (cf votre test Broadwell-E) ?
Apres, si on compare vraiment les architectures mainstream vs mainstream/High End vs High End, l'ecart est effectivement un peu plus grand mais de pas beaucoup.
Mais entre in I7 990X (133 x 27 = 3591 en turbo 4 cores) vs I7 3930K (100 x 36 = 3600 en turbo 4 cores), ca ne fait pour ce dernier que 9% en applicatif et 8.5% en gaming, soit une moyenne de 8.75% de plus.
Etant donne que l'I7 990X a 91Mhz de plus, ca ramene l'ecart a 10% en faveur de Sandy Bridge-E.
C'est certes 3% de plus pour Bloomfield vs Lynnfield, mais a voir entre l'achat en 2008 (Bloomfield) ou 2009 (Lynnfield)...
Apres, je parle d'abord de rentabilite dans mes posts
Au passage, merci d'avoir integre Nehalem dans ce test !
Marsh Posté le 31-01-2017 à 15:20:42 2
Crosslink a écrit : |
Oui bon en prenant un i7 920 OC alors, car un i7 975x niveau tarif c'est une autre histoire
Crosslink a écrit : Oui c'est vrai en ce qui concerne la frequence et la conso, mais c'est sorti en 2011, soit trois ans apres l'I7 920. |
Le LGA 1366 est sorti en octobre 2008, LGA 1155 = Janvier 2011 on est plus sur 2 ans et 3 mois que 3 ans .
Crosslink a écrit : L'I7 2600K coute d'ailleurs beaucoup plus que l'I7 920. Au alentours de 300E dans mes souvenirs en 2011. |
L'i7 920 était à 260/270 € à sa sortie le I7 2600 K pas beaucoup plus chère à 280/300€
Crosslink a écrit : |
Lien QPI, Triple Canal qui en applicatif doit prendre son sens .
Marsh Posté le 31-01-2017 à 15:21:04 1
elle est peut-être plu au catalogue justement par ce que AMD a besoin de tout leurs stock.
Marsh Posté le 31-01-2017 à 15:22:21 1
cloum123 a écrit : elle est peut-être plu au catalogue justement par ce que AMD a besoin de tout leurs stock. |
Comme la GDDR5X qui disparait parfois du catalogue micron ?
Marsh Posté le 31-01-2017 à 15:24:22 2
@Crosslink, tu devrais revoir la différence entre un thread et un core. Les jeux ont toujours géré plusieurs threads et ce depuis qu'il y a à la fois du rendu, du réseau et de l'audio par exemple.
Marsh Posté le 31-01-2017 à 15:28:55 1
J'ai volontairement dit thread (au sens CPU, pas processus) car entre les modules Bulldozer, l'HT et les cores classiques, c'est le dawa.
Mais toujours est-il que le test "2, 4, 8 cores" d'HFR de 2014 et GameGPU montrent bien qu'ils sont de plus en plus geres.
Les devs n'ont d'ailleurs de moins en moins le choix de gerer l'HT, car dans certains cas jouer sur un Pentium Dual Core releve du calvaire alors que ca passe limite avec un Core I3 (cf Battlefield 1 et Infinite Warfare).
havoc_28 a écrit : |
Je ne nie pas . Ce serait vraiment dommage de pas l'OC ceci dit
havoc_28 a écrit : |
Ok pour ca, je n'avais pas pris en compte les mois.
havoc_28 a écrit : |
As-tu des liens ? J'ai cherche partout sans trouver donc j'ai du fouiller dans ma memoire.
havoc_28 a écrit : |
Pas en gaming, qui est un facteur plus pris en compte par les gens ici malheureusement.
Marsh Posté le 31-01-2017 à 15:46:49 3
Hmmm ce vieux débat sur la vram Et si on pimentait le tout avec un soupçon de multi-gpu par ci crossli par là
Marsh Posté le 31-01-2017 à 15:53:15 2
Debat qui a maintes fois prouve dans le passe proche ou lointain ce que ca a donne d'etre court termiste
Le multi-GPU n'a presque plus d'interet aujourd'hui, sauf dans le monde pro.
Et puis nan, on va pas noyer le poisson ici
Marsh Posté le 31-01-2017 à 15:59:14 2
Tu parles bien des deux APUs colles sur le meme package c'est bien ca ?
Si c'est le cas, c'est pas vraiment du Multi-GPU comme on le voit sur PC...
Marsh Posté le 31-01-2017 à 16:05:40 4
Crosslink a écrit : As-tu des liens ? J'ai cherche partout sans trouver donc j'ai du fouiller dans ma memoire. |
J'ai même été optimiste sur la facture de mon i7 920 C0 .
Facture du 19 Novembre 2008 chez RDC :
i7 920 : 299.95 €
3*2 Go de Corsair PC 10666 : 274.99 €
Carte Mère Gigabyte EX58 UD5 : 289,95 €
Marsh Posté le 31-01-2017 à 16:30:06 2
havoc_28 a écrit :
|
La vache tant que ca ?
Apres j'ai pas achete en month one, mais vers juillet-aout 2009.
Bon, apres avoir fait des recherches a base de "" et de site:, j'ai fini par trouver:
J'avais pris ca: http://www.materiel.net/carte-mere [...] 52764.html
Mais pas chez eux, elle etait connue pour etre l'une des premieres cartes a etre en dessous de 200E.
Et forcement ca: http://www.materiel.net/processeur [...] 51466.html
Pour la RAM j'ai pris du 1066Mhz -que j'ai overclock en 1333 bien sur ^^"-.
Le tout achete chez les chinois de Paris etant donne que j'etais en deplacement
Bref, j'ai vraiment reduit les couts au max sans passer dans le degueulasse.
Marsh Posté le 31-01-2017 à 16:40:08 4
Crosslink a écrit : |
Les cartes mères sous les 200 € en LGA 1366 ne sont arrivés que quelques mois plus tard, comme ta MSI, la UD3R chez Gigabyte ou encore la P6T SE chez Asus .
Le LGA 1366 à sa sortie c'était vraiment pas donné, mais ça c'est amélioré les mois suivant oui .
Marsh Posté le 31-01-2017 à 18:28:28 1
Angeluswalsh a écrit : bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit. |
A mon humble avis, le problème de mettre 12GB de HBM2 VRAM pour maintenir la bande passante, c'est que le prix va monter de façon importante. Déjà que la HBM2 va être assez cher par rapport au coût total de la carte, ajouter 4GB de plus ça risque de placer Vega dans une gamme de prix au-dessus de la 1080 (et peut-être de la 1080Ti).
Apres, si Vega est vraiment une très bonne architecture qui déchire des le début, ça peut être OK, mais bon, on va se plaindre que la carte coûte $700... Et franchement, j'ai un peu de peine a croire que beaucoup de jeux PC en 2k/4k vont vraiment utiliser 12GB d'ici 2 ans.
Bref, faut voir si le gain de perf est au rendez-vous (vs. 8GB) avant de décider si ça vaut la peine.
Marsh Posté le 31-01-2017 à 19:26:41 1
Crosslink a écrit :
|
30 ou 60 fps, ça ne change rien à la consomation de VRAM hein...
Marsh Posté le 31-01-2017 à 10:34:57 0
Dans la dernière version en date de son catalogue dédié aux puces mémoire, SK Hynix promet l'arrivée d'un module HBM2 de 4 Go pour le trimestre en cours. ...
Lire la suite ...