[HFR] Actu : La HBM2 Hynix en retard et moins rapide ?

Actu : La HBM2 Hynix en retard et moins rapide ? [HFR] - HFR - Hardware

Marsh Posté le 31-01-2017 à 10:34:57   0  

Dans la dernière version en date de son catalogue dédié aux puces mémoire, SK Hynix promet l'arrivée d'un module HBM2 de 4 Go pour le trimestre en cours. ...
Lire la suite ...

Reply

Marsh Posté le 31-01-2017 à 10:34:57   

Reply

Marsh Posté le 31-01-2017 à 11:29:12   2  

Merci pour la news.
 
Ça fait une sacrée réduction de bande passante. C'est pas bon pour les futurs GPUs.  :(

Reply

Marsh Posté le 31-01-2017 à 11:41:28   1  

Du coup avec deux stacks on aura moins de BP que le GP102 avec un bus 384 bits et de la GDDR5X ...

Reply

Marsh Posté le 31-01-2017 à 11:41:59   8  

Ah non! Pas de ce genre de news peu de temps avant la sortie présumée de Vega :/

Reply

Marsh Posté le 31-01-2017 à 11:42:10   2  

bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit.

Message cité 1 fois
Message édité par Angeluswalsh le 31-01-2017 à 11:45:12
Reply

Marsh Posté le 31-01-2017 à 11:46:09   3  

12 Go de VRAM sur une carte destinée au jeu ça n'a pas d'intérêt.
 
Comme l'a déjà montré l'architecture Maxwell une 980 Ti 6 Go était bien plus intéressante pour un joueur que sa grande soeur la Titan X 12 Go.
 
Il faudrait vraiment un GPU monstrueux pour justifier de pouvoir exploiter à bon escient autant de mémoire.

Reply

Marsh Posté le 31-01-2017 à 12:15:40   2  

Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes.
 
AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire!

Reply

Marsh Posté le 31-01-2017 à 12:36:53   0  

A force que ça traîne je vais être tenté de prendre une 1080 en solde !
Vega nonbridé va être à 600€ facile si on se fie à la sortie de la Fury X.

Reply

Marsh Posté le 31-01-2017 à 13:03:27   5  

zezinho a écrit :

Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes.

 

AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire!


Tellement d'approximations dans ce post...
HD 5xxx : GCN ? What ??
Même si la bande passant de la HBM2 est moindre, cela reste de la HBM2, donc je ne vois pas ce que vient faire l'architecture du GPU là-dedans, et de plus, je ne vois pas pourquoi AMD ne pourrait pas s'approvisionner chez Samsung...
EDIT : si tant est que la dispo ne soit réellement pas là lors de la sortie de Vega...

Message cité 1 fois
Message édité par Omelmike le 31-01-2017 à 13:05:00
Reply

Marsh Posté le 31-01-2017 à 13:20:33   2  

ou alors comme AMD à acheter tout la production Hynix ne peut plus en vendre à d'autre entreprises.

Reply

Marsh Posté le 31-01-2017 à 13:20:33   

Reply

Marsh Posté le 31-01-2017 à 13:31:33   3  

Oué, apres coup je me suis demandé s'il n'y avait pas une exclu AMD/Hynix, un peu comme les débuts de la HBM1, et donc "hors catalogue" dans un 1er temps...Ce serait plus positif deja ça :)

Reply

Marsh Posté le 31-01-2017 à 13:32:04   3  

A chaque génération depuis CGN 3 (Tonga/Fidji) ils améliorent les aglorithmes de compression du frame buffer, nvidia ayant d'ailleurs encore de l'avance à ce niveau . Vu que Polaris a à nouveau amélioré les choses la dessus, Vega fera de même ne serait ce qu'en vu des APU intégrant Vega ... ou la bande passante est clairement limitante .  
 
Avec 410 go/s de BP au pire des cas, y a quand même de quoi faire  :whistle:, surtout que par rapport à Fidji on aura eut les améliorations de Polaris et Vega pour réduire la consommation de bande passante .
 

zezinho a écrit :

Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes.


 
Heu non, la bande passante disponible pour l'instant est de 410 go/s ... Ce qui est quand même élevé . Changement d'architecture ? Non . C'est toujours la même architecture, et V10 est à un point trop avancé dans son développement pour s'amuser à modifier le controleur mémoire ...
 

zezinho a écrit :


AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire!


 
Les HD5xx étaient de très bonnes affaires, sortie 6 mois avant le GF100 consommant moins basé sur le VLIW5 très mature ... Les pilotes étaient parfaitement au point
 
Et quand G.C.N. est sorti avec les HD7XXX y a pas eut de soucis majeurs niveau pilotes ... Les HD69XX en VLIW 4 avait servi de laboratoire .
 

Omelmike a écrit :


Tellement d'approximations dans ce post...  

Clair ...
 

Omelmike a écrit :


Même si la bande passant de la HBM2 est moindre, cela reste de la HBM2, donc je ne vois pas ce que vient faire l'architecture du GPU là-dedans, et de plus, je ne vois pas pourquoi AMD ne pourrait pas s'approvisionner chez Samsung...


 
Faut voir si le GP100 ne vampirise pas toute la production HBM2 de samsung ...
 
 

Omelmike a écrit :

EDIT : si tant est que la dispo ne soit réellement pas là lors de la sortie de Vega...


 
V10 n'est pas encore en état de sortir de toute façon ... Après on aura peut être au pire 20 % de BP de moins que par rapport à ce qui était initialement prévu .


Message édité par havoc_28 le 31-01-2017 à 13:39:37
Reply

Marsh Posté le 31-01-2017 à 13:33:30   2  

taronyu26 a écrit :

12 Go de VRAM sur une carte destinée au jeu ça n'a pas d'intérêt.
 
Comme l'a déjà montré l'architecture Maxwell une 980 Ti 6 Go était bien plus intéressante pour un joueur que sa grande soeur la Titan X 12 Go.
 
Il faudrait vraiment un GPU monstrueux pour justifier de pouvoir exploiter à bon escient autant de mémoire.


 
Il vaut mieux plus que pas assez... Ceci dit, l'histoire se repete encore...
 
Meme si 6Go de RAM suffisent aujourd'hui, dans 2-3 ans ce sera limite et ainsi de suite.
 
Aujourd'hui, en jeu non modde et en 1080p tout max, on atteint facilement les 3Go. Et plus de 3.5 Go pour Far Cry Primal non modde, qui etait a l'origine de la decouverte de la supercherie de la GTX 970.
 
Et avec les jeux pas optimises, les 6 Go on va les atteindre facilement c'est sur.
 
D'ailleurs, c'est pas pour rien qu'nVidia a mis 4Go de RAM sur sa GTX 1050 Ti alors qu'il n'y en a que 2Go sur son equivalent Kepler: GTX 680.
Bien heureux celui qui a pris la version 4Go...
 
Meme histoire pour la GTX 750 Ti vs la GTX 480: 2Go vs 1.5Go, alors que la GTX 750Ti n'est que 90% d'une GTX 480, etc.
Idem pour la GTX 980Ti vs GTX 1060, tous deux a 6Go alors que la 980Ti est plus performante que la GTX 1060.
Pareil pour la GTX 780 Ti vs ~GTX 970 et ~RX 470, 3 Go vs 3.5Go et 4Go...
 
 
Bref, ne faites pas la meme connerie du court termiste les gens, surtout si vous ne vendez pas votre carte un an apres achat.
 
Pareil pour les CPUs, on disait a l'epoque qu'un Core 2 Quad ne servait a rien, alors qu'aujourd'hui...
 
Meme histoire pour les Core I7, celui qui a son Nehalem tiens encore la route en l'overclockant.
Alors que d'un autre cote, plein de gens changent leurs I5 2500K...

Message cité 2 fois
Message édité par Crosslink le 31-01-2017 à 15:19:19
Reply

Marsh Posté le 31-01-2017 à 13:35:48   1  

Crosslink a écrit :


 
Il vaut mieux plus que pas assez... Ceci dit, l'histoire se repete encore...
 
Meme si 6Go de RAM suffisent aujourd'hui, dans 2-3 ans ce sera limite et ainsi de suite.
 
Aujourd'hui, en jeu non modde et en 1080p tout max, on atteint facilement les 3Go. Et plus de 3.5 Go pour Far Cry Primal non modde, qui etait a l'origine de la decouverte de la supercherie de la GTX 970.
 
Et avec les jeux pas optimises, les 6 Go on va les atteindre facilement c'est sur.
 
D'ailleurs, c'est pas pour rien qu'nVidia a mis 4Go de RAM sur sa GTX 1050 Ti alors qu'il n'y en a que 2Go sur son equivalent Kepler: GTX 680.
Bien heureux celui qui a pris la version 4Go...
 
Meme histoire pour la GTX 750 Ti vs la GTX 480: 2Go vs 1.5Go, alors que la GTX 750Ti n'est que 90% d'une GTX 480, etc.
 
Bref, ne faites pas la meme connerie du court termiste les gens, surtout si vous ne vendez pas votre carte un an apres achat.
 
Pareil pour les CPUs, on disait a l'epoque qu'un Core 2 Quad ne servait a rien, alors qu'aujourd'hui...


 
On parle de 8 Go minimum pour V10 dans tous les cas .
 
Et la consommation VRAM c'est allouée ou réllement utilisée ?


Message édité par havoc_28 le 31-01-2017 à 13:40:35
Reply

Marsh Posté le 31-01-2017 à 13:36:41   1  

zezinho a écrit :

Effectivement, le retard du Vega s'expliquerait mieux ainsi : ils ont dû changer l'architecture au dernier moment, car le fournisseur a des gros problèmes.
 
AMD prend décidément trop de risques, il perd souvent à ce jeu-là : il a sorti l'architecture GCN sans que les pilotes et les jeux soient adaptés, du coup les 5xxx étaient une mauvaise affaire!


 
5xxxx GCN?  derniere news o_O  mauvaises affaires?? voui voui, probablement [:tinostar]  
Changer la config de l'interposer etc au dernier moment? Me semble un peu farfelu, il est prévu pour 2 stacks

Reply

Marsh Posté le 31-01-2017 à 14:00:13   2  

havoc_28 a écrit :

[quotemsg=10057836,13,1083695]
 
Il vaut mieux plus que pas assez... [...]
Et la consommation VRAM c'est allouée ou réllement utilisée ?


 
Reellement utilisee.
 
Ceci dit, 8Go ne seront pas de refus etant donne que les consoles peuvent utiliser jusqu'a 5Go de VRAM/RAM pour les jeux en 1080p30fps max sans upscaling.
De plus, les jeux sont "optimises" sur console, car les details equivalent au medium/low sur PC...
 
Alors mettre sur PC du 1080p au max pour 60fps avec les memes 5Go de VRAM, c'est illusoire je dirais si on veut commencer a faire du moyen terme.
 
Le QHD et l'UHD on en parle meme pas ^^"

Message cité 1 fois
Message édité par Crosslink le 31-01-2017 à 14:02:08
Reply

Marsh Posté le 31-01-2017 à 14:04:17   1  

Crosslink a écrit :


Alors mettre sur PC du 1080p au max pour 60fps avec les memes 5Go de VRAM, c'est illusoire je dirais si on veut commencer a faire du moyen terme.


 
Moyen terme ? 2 ans ? Car pour l'instant, les jeux qui saturent réellement 4 go de VRAM en 1080 sur PC  :whistle: . Et baisser une option ou deux c'est pas non plus la mort si la différence n'est pas non plus ultra flagrante .
 
Sur PC y a un truc qu'on appele option graphique qui permet de faire au mieux en fonction .


Message édité par havoc_28 le 31-01-2017 à 14:05:07
Reply

Marsh Posté le 31-01-2017 à 14:04:29   4  

Crosslink a écrit :

Bref, ne faites pas la meme connerie du court termiste les gens, surtout si vous ne vendez pas votre carte un an apres achat.
 
Meme histoire pour les Core I7, celui qui a son Nehalem tiens encore la route en l'overclockant.
Alors que d'un autre cote, plein de gens changent leurs I5 2500K...


 
Le jour où ma 980 Ti sera limitée par ses 6 Go de VRAM en jeu, alors la puce sera de toute façon larguée au niveau des performances. Si tu choisis une carte où la mémoire est bien dimensionnée vis-à-vis du GPU, il n'y a pas ce problème. La carte sera larguée dans sa globalité.
 
Concernant la différence i5/i7 je ne suis pas d'accord non plus. Combien de jeux exploitent vraiment à fond le SMT sur les i7 ? Un i5-2500K est encore dans la course aujourd'hui, et si l'on possède un i5-2500K, à moins d'être stupide on a prévu la carte mère nécessaire pour pouvoir faire de l'OC, auquel cas le monter un peu en fréquence permet de gagner un peu et le conserver jusqu'à ce qu'il soit vraiment limitant. Dans le cas où l'OC est impossible, encore une fois, le matos a été mal dimensionné (CPU "K", mais carte mère ne permettant pas l'OC, alimentation ou refroidissement sous-dimensionnés par exemple).
 
Et si un jeu sort, complètement codé avec l'arrière-train, et ne peut pas tourner convenablement sur mon i5-4670K et ma 980 Ti, alors ainsi soit-il, j'irai jouer à des jeux bien codés. Je ne risque pas de remplacer tout ça par un i7 extreme 6c/12t et une Titan X Pascal juste sous prétexte qu'il y a un jeu fini à la pisse qui ne tourne pas sur ma machine.

Reply

Marsh Posté le 31-01-2017 à 14:08:24   1  

Crosslink a écrit :


Meme histoire pour les Core I7, celui qui a son Nehalem tiens encore la route en l'overclockant.
 
Alors que d'un autre cote, plein de gens changent leurs I5 2500K...


 
La plateforme en i7 a été plus honéreuse à l'achat que du i5 en SB . Et il y a quand même 11 à 13 % d'ipc en plus à fréquence égale entre Nehalem et Sandy Bridge à condition égale .


Message édité par havoc_28 le 31-01-2017 à 14:10:00
Reply

Marsh Posté le 31-01-2017 à 14:17:55   5  

Angeluswalsh a écrit :

bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit.


Et ou tu le rajoute sur l'interposer le 3è ? :D

Reply

Marsh Posté le 31-01-2017 à 14:21:30   3  

havoc_28 a écrit :


 
Moyen terme ? 2 ans ? Car pour l'ins [...] faire au mieux en fonction .


 
A partir de 2 ans c'est plus si court terme que ca pour un GPU...
 
Pour les options graphiques, c'est un choix que certains ne pevent pas faire et c'est tout a fond ou rien.
J'en fait pas parti perso, fait dire qu'une carte est faite pour tout faire tourner a fond pour ensuite lui dire d'enlever 2-3 options c'est pas top.
 
Et comme tu l'as dit pour les 4Go de VRAM en 1080p, c'est pour l'instant, alors que je sous-entendais apres egalement ;)
 

taronyu26 a écrit :

[...]
 
Le jour où ma 980 Ti sera limitée [...] fini à la pisse qui ne tourne pas sur ma machine.


 
Ca c'est clairement faux.
 
Ex:
La GTX 780Ti qui etait la carte ultime a sa sortie n'a que 3Go de VRAM, et est equivalente en perfs a la GTX 970.
Ben la GTX 780Ti est toujours d'actualite niveau puissance (~RX 470), sauf que si la GTX 970 peine avec ses 3.5Go bah ca donne pas cher de la GTX780 Ti...
 
C'est exactement pareil avec ta 980Ti, elle ne sera pas larguee dans sa globalitee, mais par sa VRAM d'abord. Surtout quand elle est taillee pour du QHD...
 
J'ai envie de dire, ce n'est pas pour rien qu'nVidia a mis 6Go sur sa GTX 1060, qui est moins puissante qu'une 980Ti.
Dans ta logique, la GTX 1060 aurait du se contenter de 4Go de VRAM vu qu'elle est environ 10-15% plus puissante qu'une GTX 970 non ?
 
 
Pour ce qui est des CPUs, de plus en plus de jeux gerent plus de 4 Threads (HT inclus) et ce, depuis au moins 2013.
Il suffit de voir le comparo d'HFR "2, 4, 8 cores" (2014) pour s'en rendre compte, ou encore sur GameGPU.
 
De plus, les consoles ont 8 Threads, ce qui ne vas pas arranger les choses...  
 
Pour le 2500K, pleins de gens le changent, a moins d'etre vraiment stupide pour pas l'OC, je vois vraiment pas ce qui pourrait les pousser a l'upgrade vers... un 6600K.
 
En tout cas, j'ai vu personne changer leurs I7 Nehalem ou 2600K...
 
Dire que tu vas jouer a un autre jeu parce qu'il est mal code releve de ta seule experience et non des autres, qui voudront quand meme jouer a ces jeux mal codes. Donc il ne faut pas generaliser ton cas et les envoyer dans le mur.
 
Sachant que les jeux sont de plus en plus mal codes et sont de plus en plus nombreux, tu n'y echapperas pas.


Message édité par Crosslink le 01-02-2017 à 00:20:35
Reply

Marsh Posté le 31-01-2017 à 14:25:45   7  

Marc a écrit :

Angeluswalsh a écrit :

bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit.


Et ou tu le rajoute sur l'interposer le 3è ? :D


 
C'est Chuck Norris qui le rajoute :D


Message édité par Angeluswalsh le 31-01-2017 à 14:26:04
Reply

Marsh Posté le 31-01-2017 à 14:28:39   2  

havoc_28 a écrit :

[...]
La plateforme en i7 a été plus honéreuse [...] à condition égale .


 
Elle est plus onereuse a l'achat (150E + 250E pour l'I7 920), mais c'est largement rentabilise sur le long terme qu'un deuxieme rachat d'I5 Skylake en partant de Sandy Bridge ((100E + 200E SB) + (100E + 250E SK) = 650E).
 
Apres, je rappelle que l'I7 920 est sorti en 2008, pour un processeur qui date de presque 10 ans pour un total de 400E la plateforme, j'ai pas vu plus rentable :D
 
Sauf peut-etre, l'upgrade vers un Xeon LGA 1366 6 cores (@3.6Ghz, soit = I7 990X) qui coute pas grand chose aujourd'hui. Et qui, rivalise sans probleme avec un I7 6700, le cout de la plateforme en moins :sol:  
 
J'avais calcule l'ecart entre Sandy Bridge et Nehalem a meme frequence, et il n'est que d'environ 7%. (cf test Broadwell-E: I7 975X vs I7 2600K).
 
En fait, Sandy Bridge n'a ete exceptionelle que parce qu'elle etait mieux cadencee et qu'elle montait plus haut en OC si on ne parle que de performances.
Mais ca avait son cout supplementaire...

Message cité 1 fois
Message édité par Crosslink le 31-01-2017 à 15:15:16
Reply

Marsh Posté le 31-01-2017 à 14:56:45   4  

Crosslink a écrit :


Elle est plus onereuse a l'achat (150E + 250E pour l'I7 920)
Apres, je rappelle que l'I7 920 est sorti en 2008, pour un processeur qui date de presque 10 ans pour un total de 350E la plateforme, j'ai pas vu plus rentable :D

 
 
150 € la carte mère en LGA 1366 ? on était à 180/190 € pour les modèles les moins chères et la plus part au dessus dans la tranche 230 à 300 € , sans oublier qu'à sa sortie en 2008 6 go de ram c'était 250 € , je m'en souviens vu que j'avais acheté un i7 920 à l'époque  :whistle:  .  
 
La plateforme LGA 1366 à sa sortie c'était plutôt dans les 650/700 € au minimum avec un i7 920 à 2.66 ghz (qu'on pouvait oc bien entendu) la carte mère et 6 go de ram .  
 
 

Crosslink a écrit :


J'avais calcule l'ecart entre Sandy Bridge et Nehalem a meme frequence, et il n'est que d'environ 7%. (cf test Broadwell-E: I7 975X vs I7 2600K).


 
http://www.hardware.fr/articles/815-22/moyenne.html
 
Je ne sais pas d'où tu les sorts tes 7% .
 
Et une comparaison encore plus directe à condition égale :  
 
http://www.hardware.fr/articles/81 [...] 8-ghz.html
 

Crosslink a écrit :


En fait, Sandy Bridge n'a ete exceptionelle que parce qu'elle etait mieux cadencee et qu'elle montait plus haut en OC.
Mais ca avait son cout supplementaire...


 
Un Tick et un Tock combiné avec fréquence atteignable niveau OC en hausse et consommation en baisse notable .


Message édité par havoc_28 le 31-01-2017 à 15:03:53
Reply

Marsh Posté le 31-01-2017 à 14:59:17   3  

Entre Lynnfield et Sandy Bridge ça donnait ça : http://www.hardware.fr/articles/81 [...] 8-ghz.html

Reply

Marsh Posté le 31-01-2017 à 15:08:17   1  

havoc_28 a écrit :

100 € la carte mère en LGA 1366 ? [...] en baisse notable .


 
J'avais mis 150E, pas 100E. Par contre, la plate-forme est effectivement pas a 350E, mais 400E.
 
Effectivement ca coutait bonbon la DDR3, mais j'ai pas pris 6Go (mais 4Go) de suite car elle etait pas en parite avec la DDR2 ^^"
Apres, j'ai upgrade vers 8Go (en 2012) puis 16Go (en 2016) progressivement.
 
Je l'ai deja dis, les 7% je les sort du test de Broadwell-E (I7 975X vs I7 2600K):
 
http://www.hardware.fr/articles/94 [...] tives.html (6.8% de gain)
 
http://www.hardware.fr/articles/94 [...] ux-3d.html (9.2% de gain)
 
Soit une moyenne de 8% de gain.
 
Ceci dit, en prenant en compte l'ecart de frequence entre l'I7 975X et l'I7 2600K -ce dernier etant avantage d'environ 100Mhz de plus-, l'ecart tombe a 7%.
 
Oui c'est vrai en ce qui concerne la frequence et la conso de Sandy Bridge, mais c'est sorti en 2011, soit trois ans apres l'I7 920.
L'I7 2600K coute d'ailleurs beaucoup plus que l'I7 920. Au alentours de 300E dans mes souvenirs en 2011.
 

Marc a écrit :

Entre Lynnfield et Sandy Bridge ça donnait ça : http://www.hardware.fr/articles/81 [...] 8-ghz.html


 
Pourquoi ne pas prendre en compte un test plus recent et refletant plus la realite d'aujourd'hui (cf votre test Broadwell-E) ?
 
Apres, si on compare vraiment les architectures mainstream vs mainstream/High End vs High End, l'ecart est effectivement un peu plus grand mais de pas beaucoup.
 
Mais entre in I7 990X (133 x 27 = 3591 en turbo 4 cores) vs I7 3930K (100 x 36 = 3600 en turbo 4 cores), ca ne fait pour ce dernier que 9% en applicatif et 8.5% en gaming, soit une moyenne de 8.75% de plus.
Etant donne que l'I7 990X a 91Mhz de plus, ca ramene l'ecart a 10% en faveur de Sandy Bridge-E.
C'est certes 3% de plus pour Bloomfield vs Lynnfield, mais a voir entre l'achat en 2008 (Bloomfield) ou 2009 (Lynnfield)...
 
Apres, je parle d'abord de rentabilite dans mes posts ;)
 
Au passage, merci d'avoir integre Nehalem dans ce test !  :love:

Message cité 1 fois
Message édité par Crosslink le 31-01-2017 à 16:10:25
Reply

Marsh Posté le 31-01-2017 à 15:20:42   2  

Crosslink a écrit :


 
J'avais mis 150E, pas 100E. Par contre, la plate-forme est effectivement pas a 350E, mais 400E.
 
Effectivement ca coutait bonbon la DDR3, mais j'ai pas pris 6Go (mais 4Go) de suite car c'etait un peu plus chere que la DDR2 ^^"
 
Je l'ai deja dis, les 7% je les sort du test de Broadwell-E (I7 975X vs I7 2600K):
 
http://www.hardware.fr/articles/94 [...] tives.html (6.8% de gain)
 
http://www.hardware.fr/articles/94 [...] ux-3d.html (9.2% de gain)
 
Soit une moyenne de 8% de gain.
 
Ceci dit, en prenant en compte l'ecart de frequence entre l'I7 975X et l'I7 2600K -ce dernier etant avantage d'environ 100Mhz de plus-, l'ecart tombe a 7%.


 
Oui bon en prenant un i7 920  OC alors, car un i7 975x niveau tarif c'est une autre histoire  :whistle:  
 
 

Crosslink a écrit :

Oui c'est vrai en ce qui concerne la frequence et la conso, mais c'est sorti en 2011, soit trois ans apres l'I7 920.


 
Le LGA 1366 est sorti en octobre 2008, LGA 1155 = Janvier 2011 on est plus sur 2 ans et 3 mois  que 3 ans .  
 
 

Crosslink a écrit :

L'I7 2600K coute d'ailleurs beaucoup plus que l'I7 920. Au alentours de 300E dans mes souvenirs en 2011.


 
L'i7 920 était à 260/270 € à sa sortie le I7 2600 K pas beaucoup plus chère à 280/300€  
 
 

Crosslink a écrit :


 
Pourquoi ne pas prendre en compte un test plus recent et refletant plus la realite d'aujourd'hui (cf votre test Broadwell-E)?
 
De plus, Lynnfield n'est pas full Nehalem, il y a le QPI en moins entre autres qui fait gagner quelques pourcents en plus.
 
Au passage, merci d'avoir integre Haswell dans ce test !


 
Lien QPI, Triple Canal qui en applicatif doit prendre son sens .

Message cité 1 fois
Message édité par havoc_28 le 31-01-2017 à 15:24:38
Reply

Marsh Posté le 31-01-2017 à 15:21:04   1  

elle est peut-être plu au catalogue justement par ce que AMD a besoin de tout leurs stock.

Reply

Marsh Posté le 31-01-2017 à 15:22:21   1  

cloum123 a écrit :

elle est peut-être plu au catalogue justement par ce que AMD a besoin de tout leurs stock.


 
Comme la GDDR5X qui disparait parfois du catalogue micron ?  :whistle:

Reply

Marsh Posté le 31-01-2017 à 15:24:22   2  

@Crosslink, tu devrais revoir la différence entre un thread et un core. Les jeux ont toujours géré plusieurs threads et ce depuis qu'il y a à la fois du rendu, du réseau et de l'audio par exemple.

Reply

Marsh Posté le 31-01-2017 à 15:28:55   1  

J'ai volontairement dit thread (au sens CPU, pas processus) car entre les modules Bulldozer, l'HT et les cores classiques, c'est le dawa.
 
Mais toujours est-il que le test "2, 4, 8 cores" d'HFR de 2014 et GameGPU montrent bien qu'ils sont de plus en plus geres.
 
Les devs n'ont d'ailleurs de moins en moins le choix de gerer l'HT, car dans certains cas jouer sur un Pentium Dual Core releve du calvaire alors que ca passe limite avec un Core I3 (cf Battlefield 1 et Infinite Warfare).
 

havoc_28 a écrit :


Oui bon en prenant un i7 920  OC alors, car un i7 975x niveau tarif c'est une autre histoire  :whistle:  


 
Je ne nie pas :jap: . Ce serait vraiment  dommage de pas l'OC ceci dit :pt1cable:  
 

havoc_28 a écrit :


Le LGA 1366 est sorti en octobre 2008, LGA 1155 = Janvier 2011 on est plus sur 2 ans et 3 mois  que 3 ans .  


 
Ok pour ca, je n'avais pas pris en compte les mois.  :pt1cable:  
 

havoc_28 a écrit :


L'i7 920 était à 260/270 € à sa sortie le I7 2600 K pas beaucoup plus chère à 280/300€  


 
As-tu des liens ? J'ai cherche partout sans trouver donc j'ai du fouiller dans ma memoire. :/
 

havoc_28 a écrit :


 
Lien QPI, Triple Canal qui en applicatif doit prendre son sens .


 
Pas en gaming, qui est un facteur plus pris en compte par les gens ici malheureusement. :(

Message cité 1 fois
Message édité par Crosslink le 31-01-2017 à 15:34:31
Reply

Marsh Posté le 31-01-2017 à 15:46:49   3  

Hmmm ce vieux débat sur la vram :) Et si on pimentait le tout avec un soupçon de multi-gpu par ci crossli par là :D

Reply

Marsh Posté le 31-01-2017 à 15:53:15   2  

Debat qui a maintes fois prouve dans le passe proche ou lointain ce que ca a donne d'etre court termiste :D
 
Le multi-GPU n'a presque plus d'interet aujourd'hui, sauf dans le monde pro.
 
Et puis nan, on va pas noyer le poisson ici :D


Message édité par Crosslink le 31-01-2017 à 16:00:07
Reply

Marsh Posté le 31-01-2017 à 15:54:28   3  

Et les consoles de jeu...

Reply

Marsh Posté le 31-01-2017 à 15:59:14   2  

Tu parles bien des deux APUs colles sur le meme package c'est bien ca ?
 
Si c'est le cas, c'est pas vraiment du Multi-GPU comme on le voit sur PC...

Reply

Marsh Posté le 31-01-2017 à 16:05:40   4  

Crosslink a écrit :

As-tu des liens ? J'ai cherche partout sans trouver donc j'ai du fouiller dans ma memoire. :/


 
J'ai même été optimiste sur la facture de mon i7 920 C0 .  
 
Facture du 19 Novembre 2008 chez RDC :
 
i7 920 : 299.95 €
 
3*2 Go de Corsair PC 10666  : 274.99  €
 
Carte Mère Gigabyte EX58 UD5 : 289,95 €

Message cité 1 fois
Message édité par havoc_28 le 31-01-2017 à 16:45:28
Reply

Marsh Posté le 31-01-2017 à 16:30:06   2  

havoc_28 a écrit :

Crosslink a écrit :

As-tu des liens ? J'ai cherche partout sans trouver donc j'ai du fouiller dans ma memoire. :/


 
J'ai même été optimiste sur la facture de mon i7 920 C0 .  
 
Facture du 19 Novembre 2008 chez RDC :
 
i7 920 : 299.95 €
 
3*2 Go de Corsair PC 10666  : 274.99  €
 
Carte Mère Gigabyte EX58 UD5 : 249.99 €


 
La vache tant que ca ?
 
Apres j'ai pas achete en month one, mais vers juillet-aout 2009.
 
Bon, apres avoir fait des recherches a base de "" et de site:, j'ai fini par trouver:
 
J'avais pris ca: http://www.materiel.net/carte-mere [...] 52764.html
Mais pas chez eux, elle etait connue pour etre l'une des premieres cartes a etre en dessous de 200E.
 
Et forcement ca: http://www.materiel.net/processeur [...] 51466.html
 
Pour la RAM j'ai pris du 1066Mhz -que j'ai overclock en 1333 bien sur ^^"-.
 
Le tout achete chez les chinois de Paris etant donne que j'etais en deplacement :sol:
 
Bref, j'ai vraiment reduit les couts au max sans passer dans le degueulasse.

Reply

Marsh Posté le 31-01-2017 à 16:40:08   4  

Crosslink a écrit :


 
La vache tant que ca ?
 
Apres j'ai pas achete en month one, mais vers juillet-aout 2009.
 
Bon, apres avoir fait des recherches a base de "" et de site:, j'ai fini par trouver:
 
J'avais pris ca: http://www.materiel.net/carte-mere [...] 52764.html
Mais pas chez eux, elle etait connue pour etre l'une des premieres cartes a etre en dessous de 200E.
 
Et forcement ca: http://www.materiel.net/processeur [...] 51466.html
 
Pour la RAM j'ai pris du 1066Mhz -que j'ai overclock en 1333 bien sur ^^"-.
 
Le tout achete chez les chinois de Paris etant donne que j'etais en deplacement :sol:
 
Bref, j'ai vraiment reduit les couts au max sans passer dans le degueulasse.


 
Les cartes mères sous les 200 € en LGA 1366 ne sont arrivés que quelques mois plus tard, comme ta MSI, la UD3R chez Gigabyte ou encore la P6T SE chez Asus .
 
Le LGA 1366 à sa sortie c'était vraiment pas donné, mais ça c'est amélioré les mois suivant oui .


Message édité par havoc_28 le 31-01-2017 à 16:42:36
Reply

Marsh Posté le 31-01-2017 à 18:28:28   1  

Angeluswalsh a écrit :

bah il mettrons 3 modules et hop 614.,4 Go/s pour 12Go de Vram comme sur le GP102 donc il garde un avantage en débit.


 
A mon humble avis, le problème de mettre 12GB de HBM2 VRAM pour maintenir la bande passante, c'est que le prix va monter de façon importante. Déjà que la HBM2 va être assez cher par rapport au coût total de la carte, ajouter 4GB de plus ça risque de placer Vega dans une gamme de prix au-dessus de la 1080 (et peut-être de la 1080Ti).
 
Apres, si Vega est vraiment une très bonne architecture qui déchire des le début, ça peut être OK, mais bon, on va se plaindre que la carte coûte $700... Et franchement, j'ai un peu de peine a croire que beaucoup de jeux PC en 2k/4k vont vraiment utiliser 12GB d'ici 2 ans.
 
Bref, faut voir si le gain de perf est au rendez-vous (vs. 8GB) avant de décider si ça vaut la peine.


Message édité par MrPlus le 31-01-2017 à 18:28:51
Reply

Marsh Posté le 31-01-2017 à 19:26:41   1  

Crosslink a écrit :

havoc_28 a écrit :

[quotemsg=10057836,13,1083695]
 
Il vaut mieux plus que pas assez... [...]
Et la consommation VRAM c'est allouée ou réllement utilisée ?


 
Reellement utilisee.
 
Ceci dit, 8Go ne seront pas de refus etant donne que les consoles peuvent utiliser jusqu'a 5Go de VRAM/RAM pour les jeux en 1080p30fps max sans upscaling.
De plus, les jeux sont "optimises" sur console, car les details equivalent au medium/low sur PC...
 
Alors mettre sur PC du 1080p au max pour 60fps avec les memes 5Go de VRAM, c'est illusoire je dirais si on veut commencer a faire du moyen terme.
 
Le QHD et l'UHD on en parle meme pas ^^"


 
30 ou 60 fps, ça ne change rien à la consomation de VRAM hein...

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed