[HFR] Actu : GTX 750 Ti et 750 chez Nvidia et R7 250X pour AMD

Actu : GTX 750 Ti et 750 chez Nvidia et R7 250X pour AMD [HFR] - HFR - Hardware

Marsh Posté le 06-02-2014 à 16:30:04   0  

Comme nous l'indiquions à l'époque des rumeurs de décembre  annonçant une arrivée prochaine de l'architecture Maxwell de Nvidia, c'est bien sous la forme d'une ...
Lire la suite ...

Reply

Marsh Posté le 06-02-2014 à 16:30:04   

Reply

Marsh Posté le 06-02-2014 à 16:49:47   0  

Euh du coup la r7 250x serait = ou sup a la hd 7770 ?

Reply

Marsh Posté le 06-02-2014 à 17:16:10   0  

28nm confirmé donc ?

Reply

Marsh Posté le 06-02-2014 à 18:38:45   1  

jujudk a écrit :

Euh du coup la r7 250x serait = ou sup a la hd 7770 ?

Une 7770 c'est un peu en dessous d'une 260, donc difficile à dire. Ce sera probablement proche.

Reply

Marsh Posté le 06-02-2014 à 20:07:25   1  

Il y a pas déjà la R7 260 pour combler un peu le trou entre les R7 250 et 260X ?

Reply

Marsh Posté le 06-02-2014 à 20:21:36   0  

La R7 260X est un poil supérieure à la HD7790, la R7 260 un poil au dessus de la HD7770, du coup sur la R7 260 et 250, je donne ma langue au chat...

Reply

Marsh Posté le 06-02-2014 à 23:24:51   0  

GDDR5 196 bits =>GDDR5 192 bits pour le GK106

Reply

Marsh Posté le 06-02-2014 à 23:46:36   0  

Bien vu ;)
 
Tony_capriani > Un peu. Chez AMD ils n'aiment pas les trous apparemment :o

Reply

Marsh Posté le 07-02-2014 à 01:48:53   0  

Un leak de GPU, mais de quelle marque, mystère ?
http://youtu.be/05i1TehUmXI

Reply

Marsh Posté le 07-02-2014 à 03:32:55   1  

Juste une remarque, c'est "a priori" sans accent. C'est du latin.

Reply

Marsh Posté le 07-02-2014 à 03:32:55   

Reply

Marsh Posté le 07-02-2014 à 08:12:27   1  

non a priori, peut s'écrire avec à depuis la rectification orthographique de 1990. la version latine est sans accent, la version française est avec accent.

Reply

Marsh Posté le 07-02-2014 à 09:03:14   0  

Thx Pivot ;)

Reply

Marsh Posté le 07-02-2014 à 09:04:42   0  

Vous avez pas des contacts undercover ou des agents secrets en Asie chez HFR pour nous proposer une preview du 20nm amd ou nvidia avant tout le monde ?
 
Ca ferait plaisir à vos lecteurs à coup sûr.

Reply

Marsh Posté le 07-02-2014 à 14:22:57   0  

Maxwell, ca veut pas dire une toute nouvelle architecture avec un processeur ARM Nvidia sur la carte ?  
 
Du coup, êtes vous sùr de pouvoir extrapoler les performances à partir de la génération Kepler ?


Message édité par MArvellou le 07-02-2014 à 14:24:17
Reply

Marsh Posté le 07-02-2014 à 15:02:14   1  

Non Maxwell c'est une architecture GPU, le projet Denver utilisera pour la partie GPU Maxwell mais c'est une autre histoire.
 
Sinon comme dit précédemment Maxwell, d'un point de vue architectural c'est une évolution de Kepler par petites touches, pas un changement drastique.

Reply

Marsh Posté le 07-02-2014 à 16:50:42   1  

ça me rappelle je ne sais quel VRP qui taillait sur GCN en arguant qu'NVidia, avec Maxwell, allait probablement rejoindre le rang des entreprises trotskistes (celles qui pratiquent la révolution permanente, cf. Apple et ses produits toujours nouveaux)...

Reply

Marsh Posté le 07-02-2014 à 19:30:18   0  

Mouai allez amd sortez la r7 260 non x !!!! a 100 euros je l'achete direct !!!
Tant que je pourrais jouer a wtach dogs (en 720p ou a peine plus =p) m'en fou !!

Reply

Marsh Posté le 10-02-2014 à 19:21:55   0  

Des fuites annoncent une consommation pour la 750 Ti de l'ordre de 75 Watts ! Pour une puissance qui équivaudrait a celle des GK106-400, c'est la moitié de la génération précédente (140W), et toujours en 28nm (d'ou la dénomination GTX 7xx et non GTX 8xx).

Reply

Marsh Posté le 10-02-2014 à 22:27:13   2  

Tu t'emballes un peu, j'estime plutôt la GTX 750 Ti au niveau du GK106-240 soit de la GTX 650 Ti Boost.

Reply

Marsh Posté le 11-02-2014 à 09:38:54   0  

Elle sera surement entre les deux, effectivement. Difficile d'apprécier avec le bus de l'un et le core de l'autre, sans compter les améliorations propres a Maxwell. Mais ce qui est remarquable, c'est la diminution de la conso.

Reply

Marsh Posté le 11-02-2014 à 11:49:03   2  

C'est remarquable, surtout qu'on ne sait pour l'instant rien...

Reply

Marsh Posté le 11-02-2014 à 14:23:03   3  

Une chose est sure, la qualité des filtres devrait être bien meilleur chez Maxwell...

Reply

Marsh Posté le 11-02-2014 à 20:59:21   1  

Omelmike a écrit :

C'est remarquable, surtout qu'on ne sait pour l'instant rien...


Tu es dans la vraie croyance, ou la fausse septique ?

Reply

Marsh Posté le 11-02-2014 à 22:12:39   1  

Singman a écrit :

Omelmike a écrit :

C'est remarquable, surtout qu'on ne sait pour l'instant rien...


Tu es dans la vraie croyance, ou la fausse septique ?


Je dirai l'obscurantisme de droit divin...


Message édité par Marc le 11-02-2014 à 23:53:22
Reply

Marsh Posté le 12-02-2014 à 08:59:11   0  

Omelmike a écrit :

Je dirai l'obscurantisme de droit divin...


Alors il faut t'y faire, parce que la totalité de cette news n'est qu'une rumeur, et selon toi n'aurait pas raison d'être. Je citais juste une autre source, qui a même des photos de la 750 et quelques specs.

Reply

Marsh Posté le 12-02-2014 à 12:53:11   1  

En français moderne, mon expression se rattache à la figure de style appelée "ironie", un second degré typiquement français dont Voltaire fut un grand adepte.  
Pour parler ta langue : arrête de rêver... Je sais que cette news est une rumeur, mais je sais aussi que la consommation est une donnée électrique, et qu'aux dernières nouvelles, NVidia est un concepteur de circuits, pas un magicien.

Reply

Marsh Posté le 12-02-2014 à 19:54:06   0  

Une consommation de 75 Watts est possible. Déjà sur la photo, pas de connecteurs 6 broches, donc alimentation par le bus (75 W max), mais la photo peut être un fake. Ensuite, le bus diminue, donc pas mal de transistors en moins. Si on ajoute une simplification des SMX et une diminution des ROP par rapport au GK106, c'est atteignable, et sans magie. Et sans ironie.

Reply

Marsh Posté le 12-02-2014 à 19:59:37   1  

Une consommation de 75w est possible, mais les perfs d'une GTX 660 non pour une conso divisée par 1.87 non


Message édité par Marc le 12-02-2014 à 23:14:04
Reply

Marsh Posté le 12-02-2014 à 23:07:09   1  

Merci Marc.

Reply

Marsh Posté le 13-02-2014 à 02:12:39   0  

Omelmike a écrit :

C'est remarquable, surtout qu'on ne sait pour l'instant rien...


Allez hop, tu peux effectivement dire merci a Marc, puisque maintenant tu sais quelque chose :) Et tout ça à partir de rumeurs, tu te rends compte ? Le monde réel est incroyable !

Reply

Marsh Posté le 13-02-2014 à 10:20:58   0  

Les 1er benchmark pour la route, sous 3DMark 2011 :
GTX 650 Ti: 4819
GTX 750: 5250
GTX 750 Ti: 5963
GTX 660 2GB: 6727
 
Ça reste cohérent par rapport aux rumeurs : 12% de perf en moins pour la 750 Ti par rapport à la 660 pour 45% de consommation en moins. Magie ?

Reply

Marsh Posté le 13-02-2014 à 10:32:25   1  

La magie c'est surtout d'arriver à sortir un delta de consommation alors que tu n'as ni la donnée de conso de la 750 Ti sous 3DMark11 ni celle de la 660.

 

Et je te rappelles que ton premier message parlait d'une puissance équivalente à la 660, pas 12% en dessous ;)


Message édité par Marc le 13-02-2014 à 10:54:05
Reply

Marsh Posté le 13-02-2014 à 10:45:32   0  

Si je dis 'merci' à Marc, c'est surtout parce que sa position lui donne autorité dans son argumentation...
Et aussi parce que tu me fatigues. J'ai grosso modo dit la même chose.
Mais j'oubliais qu'on parle d'NVidia, et de sa force de frappe et de conception, capable de réduire la consommation même d'un Pentium 4 EE, simplement en mettant son auguste logo dessus.
A la relecture des tests, il est de plus amusant de constater que depuis quelques générations déjà, et dans ce segment de produits (milieu/bas de gamme) les architectures NVidida sont moins efficaces (à quelques points près, hein ! ne me faites pas dire ce que je n'ai pas dit) que celles du concurrent...


Message édité par Omelmike le 13-02-2014 à 10:47:57
Reply

Marsh Posté le 13-02-2014 à 13:15:14   0  

Marc a écrit :

La magie c'est surtout d'arriver à sortir un delta de consommation alors que tu n'as ni la donnée de conso de la 750 Ti sous 3DMark11 ni celle de la 660.
 
Et je te rappelles que ton premier message parlait d'une puissance équivalente à la 660, pas 12% en dessous ;)


Pour la conso, c'est tres vite vu : la carte testée n'a pas de connecteur PCI-Ex, donc 75 Watts maxi. Simple non ?
Sur la seconde remarque, j'ai effectivement sur-estimé le GM107 a 1ère vue (mais j'ai rectifié juste après), mais Marc l'a complètement sous-estimé lui aussi ("j'estime plutôt la GTX 750 Ti au niveau du GK106-240 soit de la GTX 650 Ti Boost" ).
Bon, ça reste un test comme ça, et j'attends les votres. Mais ce que je tenais a souligner, c'est que pour une même finesse de gravure (28nm), en réarrangeant l'architecture interne et en faisant quelques concessions, on arrive a des progrès considérables en matière de consommation.

Message cité 1 fois
Message édité par Singman le 13-02-2014 à 13:18:33
Reply

Marsh Posté le 13-02-2014 à 13:23:22   0  

Omelmike a écrit :

A la relecture des tests, il est de plus amusant de constater que depuis quelques générations déjà, et dans ce segment de produits (milieu/bas de gamme) les architectures NVidida sont moins efficaces (à quelques points près, hein ! ne me faites pas dire ce que je n'ai pas dit) que celles du concurrent...


Normal, et si tu suivais un tant soit peu les dossiers techniques de Hardware.fr, tu saurai que les deux marques ont des divergences sur leur architecture interne, qui fait que NVidia arrive plus facilement a sortir des cartes très puissantes sur le haut de gamme, alors qu'AMD est plus à l'aise sur les gammes en dessous.

Reply

Marsh Posté le 13-02-2014 à 13:36:21   0  

Singman a écrit :


Normal, et si tu suivais un tant soit peu les dossiers techniques de Hardware.fr, tu saurai que les deux marques ont des divergences sur leur architecture interne, qui fait que NVidia arrive plus facilement a sortir des cartes très puissantes sur le haut de gamme, alors qu'AMD est plus à l'aise sur les gammes en dessous.


 
[:rainbow_dash:4]


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
Reply

Marsh Posté le 13-02-2014 à 17:04:13   0  

Singman a écrit :


Pour la conso, c'est tres vite vu : la carte testée n'a pas de connecteur PCI-Ex, donc 75 Watts maxi. Simple non ?
Sur la seconde remarque, j'ai effectivement sur-estimé le GM107 a 1ère vue (mais j'ai rectifié juste après), mais Marc l'a complètement sous-estimé lui aussi ("j'estime plutôt la GTX 750 Ti au niveau du GK106-240 soit de la GTX 650 Ti Boost" ).
Bon, ça reste un test comme ça, et j'attends les votres. Mais ce que je tenais a souligner, c'est que pour une même finesse de gravure (28nm), en réarrangeant l'architecture interne et en faisant quelques concessions, on arrive a des progrès considérables en matière de consommation.

C'est plus simpliste que simple, tu compare d'un côté la consommation permise par le PCI-SIG avec la connectique dispo (75W) au TDP (140W), mais ce qui compte pour juger ce que tu souhaites juger c'est l'écart entre la consommation réel dans les deux cas et tu n'as aucune des deux valeurs.

 

Pour ce qui est des performances tu parles de sous estimation complète, mais à ma connaissance il n'y a pas de score de GTX 650 Ti Boost dans ceux que tu donnes (qui est, pour rappel, un seul bench), dès lors qu'est ce qui te permet de l'affirmer ?

 

Pour le reste il semble clair que l'efficacité énergétique du GM107 est en nette hausse.


Message édité par Marc le 13-02-2014 à 17:06:46
Reply

Marsh Posté le 14-02-2014 à 01:05:45   0  

Singman a écrit :

Omelmike a écrit :

A la relecture des tests, il est de plus amusant de constater que depuis quelques générations déjà, et dans ce segment de produits (milieu/bas de gamme) les architectures NVidida sont moins efficaces (à quelques points près, hein ! ne me faites pas dire ce que je n'ai pas dit) que celles du concurrent...


Normal, et si tu suivais un tant soit peu les dossiers techniques de Hardware.fr, tu saurai que les deux marques ont des divergences sur leur architecture interne, qui fait que NVidia arrive plus facilement a sortir des cartes très puissantes sur le haut de gamme, alors qu'AMD est plus à l'aise sur les gammes en dessous.


Du coup, je ne comprends pas ta réponse. Tu ne me contredis absolument pas...


Message édité par Omelmike le 14-02-2014 à 08:01:09
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed