I5 4670k + GTX 1070

I5 4670k + GTX 1070 - Carte graphique - Hardware

Marsh Posté le 13-10-2016 à 17:07:03    

Bonjour bonjour,  
 
Dites, je dispose d'un I5 4670k et d'une GTX 770 pour le moment. Mais je compte changer la CG pour une 1070.
 
Question: Vais-je être CPU limited? De beaucoup? Même si j'overcloque mon processeur (car à la base, c'est pour ce genre de problématique que j'ai pris un processeur "K" )?
 
Dans l'attente de votre réponse que j'espère favorable, je vous prie de bien vouloir recevoir, Madame, Monsieur, l'expression de mes considérations les plus sérieuses.


Message édité par boca chan le 13-10-2016 à 17:08:40
Reply

Marsh Posté le 13-10-2016 à 17:07:03   

Reply

Marsh Posté le 13-10-2016 à 17:09:35    

Salut
 
Comme d'habitude et pour ne pas changer: Non un i5-4670K n'est pas limitant pour une GTX 1070, surtout pas s'il est overclocké. :D


Message édité par Scarface72 le 13-10-2016 à 17:10:05

---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-10-2016 à 17:13:12    

"Comme d'habitude et pour ne pas changer"
 
Ah? j'ai cherché ce genre de topic avec ma config mais j'avais pas trouvé. My bad si je suis passé à coté.
 
Dans tous les cas, merci de ta réponse.

Reply

Marsh Posté le 13-10-2016 à 17:18:49    

Y a pas de soucis si t'as pas trouvé, c'est juste parce que la question revient souvent avec tous types de i5-K et c'est la même réponse à chaque fois. ;)


Message édité par Scarface72 le 13-10-2016 à 17:22:32

---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-10-2016 à 17:20:49    

tant que personne n'aura pris le temps de faire un grand tableau avec "quel CPU minimum pour telle CG" ces questions reviendrons.

 

On se demande pourquoi des sites de comparaison de matos comme GPUBoss n'intègrent pas cette donnée... vu la demande ça ferait des visites en plus.


Message édité par Mitch2Pain le 13-10-2016 à 17:21:45
Reply

Marsh Posté le 13-10-2016 à 17:22:11    

Et nous y répondrons :D


---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-10-2016 à 17:23:59    

Ouais enfin moi je répond une fois que j'ai vu passer un paquet de réponses faisant consensus.
Sur quoi se basent les mecs qui répondent au début ?
Certainement pas les tests de sites d'infos puisqu'ils prennent toujours de CPU ultra-puissant pour justement être sur de ne pas être CPU limited pour le test ...

Reply

Marsh Posté le 13-10-2016 à 17:35:38    

Bah tu sais, si un i5-4670K s'en sortait avec une GTX 980Ti il n'y a aucune raison pour qu'il limite une GTX 1070.


---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-10-2016 à 17:37:40    

Donc il s'en sortira avec une 1070.
Et dans 2 ans on pourra dire "il s'en sortait avec une 1070, y'a pas de raison qu'il limite une 1180" ... et pourtant il y a bien un moment où ça coincera ...

Reply

Marsh Posté le 13-10-2016 à 17:48:47    

ça c'est sur mais là la 1070 et la 980 ti on a peu de choses près les mêmes perfs (alors que ce n'est pas la même gamme ^^). Donc si à chaque nouvelle génération, tu prend une carte qui a les même perfs qu'une 980 Ti, bah ça passera toujours. C'est ce qu'il a voulu dire je pense.

Reply

Marsh Posté le 13-10-2016 à 17:48:47   

Reply

Marsh Posté le 13-10-2016 à 18:01:43    

C'est tout à fait ça Tchewi :jap:
 

Mitch2Pain a écrit :

Et dans 2 ans on pourra dire "il s'en sortait avec une 1070, y'a pas de raison qu'il limite une 1180"


 
Dans 2 ans i5-4670K + GTX 1070 > i5-4670K + GXT "1160" :D Il est évident qu'une "1180" sera bien plus puissante qu'une GTX 980Ti ou une GTX 1070.


Message édité par Scarface72 le 13-10-2016 à 18:04:42

---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-10-2016 à 18:23:48    

Question subsidiaire:
 
Vous pensez que cette CG (la 1070) va tenir combien de temps pour jouer aux AAA dans de bonnes conditions? Mono écran 144Hz 1080p?


Message édité par boca chan le 13-10-2016 à 18:24:13
Reply

Marsh Posté le 13-10-2016 à 18:32:55    

C'est une réponse quasiment impossible à donner "boca chan" parce que pour être précis il faut connaitre à l'avance les jeux de demain ce qui n'est pas possible...

 

Après franchement une carte qui à 2/3 ans ne galère pas plus que ça actuellement et si tu es prêt à faire des concessions sur la qualité de certaines choses en 1080p, sur les derniers triples A tu devrais être large pendant les 2/3 prochaines années à mon avis... (si je fait une estimation perso et que je sort ma boule de cristal)

 

La GTX 1070 à été "taillé" pour du 1440p donc en 1080 elle devrait être vraiment à l'aise pendant longtemps... Sauf sur les jeux mal optimisés et dans ce cas précis ça vaut vraiment pas le coup de prendre un GPU à 700€ pour parer à ce genre d'éventualité ?

 

édit : pour te donner un exemple tu as l'impression qu'une GTX 980Ti est à la ramasse ? Elle est vieille de 17 mois environ je pense qu'elle peu encore largement faire 19 mois sans trop de problèmes sur les triples A.
Sinon pour comparer à maintenant tu as la GTX 780Ti sortie il y a environ 3 ans


Message édité par Rocket_23 le 14-10-2016 à 15:27:53
Reply

Marsh Posté le 13-10-2016 à 19:06:14    

Ah ok merci.

Reply

Marsh Posté le 14-10-2016 à 15:25:09    

Yep, je confirme. J'ai un écran 1440p 144Hz et une 980 TI (en fait j'ai un SLI mais j'ai tourné pendant 6-7 mois avec une seule). Eh bien elle gère très bien les triples A. Elle galère un peu quand je suis en ULTRA et 144Hz mais si je met en 85 ou 60Hz tout les jeux passent.

Reply

Marsh Posté le 14-10-2016 à 15:30:11    

Tchewi a écrit :

Yep, je confirme. J'ai un écran 1440p 144Hz et une 980 TI (en fait j'ai un SLI mais j'ai tourné pendant 6-7 mois avec une seule). Eh bien elle gère très bien les triples A. Elle galère un peu quand je suis en ULTRA et 144Hz mais si je met en 85 ou 60Hz tout les jeux passent.


 
??? pourquoi passer en 85 ou 60 hz ? et pourquoi tu ne reste pas en 144hz tout l'temps ?  :heink:  
 
Que tu es 60 fps à 60hz ou 60 fps à 144hz faut mieux avoir les 60fps à 144hz , donc je comprend pas trop ..
 
c'est comme si tu préféré que l'on te file une twingo parce que c'est limiter à 90 alors que tu peut avoir la ferrari pour faire la même chose


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
Reply

Marsh Posté le 14-10-2016 à 16:22:25    

dazouille a écrit :

Que tu es 60 fps à 60hz ou 60 fps à 144hz faut mieux avoir les 60fps à 144hz

 

Non il a raison:
60fps@60Hz c'est synchro: pas de découpage d'image et pas de lag.
environ 60fps (c'est pas 60 constant)@144Hz c'est pas synchro, donc découpage de l'image. Et si pour éviter le découpage tu mets la Vsync alors t'aura régulièrement 2 fois la même frame affichée et un lag correspondant au temps que met le PC à calculer l'image suivante. Ou pire avec le triple buffering: t'aura pas le pblm de la même frame affichée 2 fois d'affilée par l'écran, mais t'aura systématiquement 3 images de retard puisqu'elles seront stockées dans le buffer avant d'être envoyées à l'écran.

Message cité 1 fois
Message édité par Mitch2Pain le 14-10-2016 à 16:24:16
Reply

Marsh Posté le 14-10-2016 à 17:03:44    

Exactement, 144Hz ça veut dire que la CG doit produire 144 images par secondes. Du coup en ULTRA 1440p elle arrive pas à suivre dans les gros AAA, pour ça que je baisse à 85 - 60Hz (ou fps) ;)

Reply

Marsh Posté le 13-11-2016 à 13:44:35    

Je up le topic au lieu d'en faire un autre. Mais j'ai oublié une question la dernière fois. Passke CPU limited par ci, CPU limited par là...
Mais en vrai, c'est pas super grave si? Je veux dire, dans le pire des cas on utilise pas toute la puissance de la CG et piçétou. Non?

Reply

Marsh Posté le 13-11-2016 à 17:59:50    

oui.

Reply

Marsh Posté le 13-11-2016 à 21:31:36    

Merci de ta réponse. Donc oké, c'est bien ce que je pensais.

Reply

Marsh Posté le 13-11-2016 à 21:37:38    

Tchewi a écrit :

Exactement, 144Hz ça veut dire que la CG doit produire 144 images par secondes. Du coup en ULTRA 1440p elle arrive pas à suivre dans les gros AAA, pour ça que je baisse à 85 - 60Hz (ou fps) ;)


 
Et c'est la qu'intervient la gsync... x)  
 
Donc non vous êtes un peu debile mais bon.


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
Reply

Marsh Posté le 13-11-2016 à 22:25:12    

dazouille a écrit :

Et c'est la qu'intervient la gsync... x)  
 
Donc non vous êtes un peu debile mais bon.


 
Encore faut-il qu'il ait un écran G-Sync :D
 
Et ce genre d'insulte on s'en passe, hein!


Message édité par Scarface72 le 13-11-2016 à 22:38:53

---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 13-11-2016 à 22:35:38    

dazouille a écrit :


 
Et c'est la qu'intervient la gsync... x)  
 
Donc non vous êtes un peu debile mais bon.


 
Et tu l'active comment le gsync sur un écran non compatible? Je suis curieux.

Reply

Marsh Posté le 14-11-2016 à 09:09:52    

Mitch2Pain a écrit :

 

Non il a raison:
60fps@60Hz c'est synchro: pas de découpage d'image et pas de lag.
environ 60fps (c'est pas 60 constant)@144Hz c'est pas synchro, donc découpage de l'image. Et si pour éviter le découpage tu mets la Vsync alors t'aura régulièrement 2 fois la même frame affichée et un lag correspondant au temps que met le PC à calculer l'image suivante. Ou pire avec le triple buffering: t'aura pas le pblm de la même frame affichée 2 fois d'affilée par l'écran, mais t'aura systématiquement 3 images de retard puisqu'elles seront stockées dans le buffer avant d'être envoyées à l'écran.


Pas d'accord du tout. Quand tu es à 60 fps@144hz, c'est bien plus confortable qu'à 60/60, ne serait-ce que pour la souris quand tu es dans un jeu à menus/inventaire genre Skyrim par exemple mais c'est valable pour tout.

 

Pas besoin de vsync non plus : fastsync ou borderless sont là pour nous... et pour les plus fortunés, il y a Gsync/Freesync (pour AMD).


Message édité par petit-tigre le 14-11-2016 à 09:10:03

---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 14-11-2016 à 09:26:42    

"Quand tu es à 60 fps@144hz, c'est bien plus confortable qu'à 60/60" <= :lol:
 
60 FPS c'est 60 FPS, que tu aies un moniteur 60, 75, 120 ou 144Hz ça ne change absolument rien à la réactivité du jeu puisque le framerate est locké à 60Hz/FPS... Faut pas confondre avec 144FPS sur un moniteur 60Hz qui là change quelque chose même si tu ne le vois pas vraiment.


Message édité par Scarface72 le 14-11-2016 à 09:27:03

---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 14-11-2016 à 09:31:46    

Faut lire les phrases jusqu'au bout.

 

Lance Skyrim à 60/60 puis 60/144. Regarde la réaction de ta souris et viens me dire que tu ne vois pas de différence ;) Quand tu limites un jeu à 60 fps, c'est juste ta carte graphique que tu brides sur un processus particulier. Ton écran lui, continue de balancer 144 images/s.

Message cité 1 fois
Message édité par petit-tigre le 14-11-2016 à 09:32:41

---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 14-11-2016 à 09:33:22    

dazouille a écrit :


 
Et c'est la qu'intervient la gsync... x)  
 
Donc non vous êtes un peu debile mais bon.


Je suis sûr que tu aurais pu exprimer ça autrement. Vu tes antécédents je pense que 3j de TT t'aideront à t'en souvenir la prochaine fois.


---------------
Réalisation amplis classe D / T      Topic .Net - C# @ Prog
Reply

Marsh Posté le 14-11-2016 à 10:07:43    

petit-tigre a écrit :

Quand tu limites un jeu à 60 fps, c'est juste ta carte graphique que tu brides sur un processus particulier. Ton écran lui, continue de balancer 144 images/s.


 
Hum... Et ton écran il fait comment pour balancer 144FPS s'il n'en reçoit que 60? Il affiche plus de 2 fois la même image et comme tout ton jeu est calé à 60FPS il ne se casse pas le c** à calculer les 84FPS/actions manquantes :D
 
Perso je vois nettement la différence de charge aussi bien CPU que GPU en Vsync on ou off.


---------------
Google est ton ami, fais une recherche! Sois précis dans ta demande, nous ne sommes pas devins ;) J'ai raison et tu as tort jusqu'à ce que tu me prouves le contraire :D
Reply

Marsh Posté le 14-11-2016 à 10:29:29    

Ton écran reçoit toujours 144 fps mais c'est au niveau de l'exécutable du jeu que tu limites à 60. C'est là que se situe la subtilité.
 
Tu peux le voir via le test que je t'ai proposé. Bride un jeu dans Nvidia Inspector par exemple à 60 puis lance ton jeu. Avec les boutons de ton écran, affiche ses propriétés d'affichage et tu verras qu'il sera bien à 144hz.
 
Tu le vois à la souris de toute façon. Que ton jeu soit limité à 60 fps ou non, tant que tu es à 144hz, tu auras la souris réactive que tu as sur ton bureau windows. Si tu bascules à 60hz, tu te retrouveras avec une souris qui donne l'impression de lagger (comme d'hab avec 60 hz).
 
C'est pareil pour les consoles. La plupart des jeux console sont bridés à 30 fps et pourtant ta TV ne bascule pas automatiquement à 30hz pour autant, elle reste à 60 (ou au-delà si tu as une TV HDG). Même chose ici donc.


---------------
mIaOuUuUuUuUuUu
Reply

Marsh Posté le 14-11-2016 à 10:34:27    

Vous avez tout les 2 raisons:
- Oui à 144Hz le mouvement de la souris est plus fluide qu'à 60Hz.
- Afficher 60FPS@144Hz va crééer une sensation désagréable puisque certaines images vont rester affichées à l'écran 2 fois par secondes et d'autres 3 fois ce qui va créeer du stuttering. Alors qu'afficher 60FPS@60Hz sera plus fluide puisque chaque image sera affichée pendant la même durée.

 

Un bon compromis serait d'afficher 60FPS@120Hz: ça sera plus fluide pour la souris et pour le jeu identique à 60FPS@60Hz puisque chaque image sera affichée exactement 2 fois par seconde.

 

Le top étant evidement d'afficher 144FPS@144Hz.


Message édité par Mitch2Pain le 14-11-2016 à 10:36:56
Reply

Marsh Posté le 14-11-2016 à 10:36:33    

Euh pour info, Gsync intervient surtout quand la CG produit plus d'images que ce que l'écran peut afficher (genre la CG produit 200 FPS et l'écran ne peut en afficher que 120). Si ta CG est pas capable de te fournir les 120 FPS bah Gsync va pas te créer des images par magie. Il va manquer des images sur une seconde c'est tout. Gsync est surtout conçu pour ne pas envoyer une image au moniteur alors qu'il n'a pas fini d'afficher la précédente.
 
Sinon la souris est gérée par le processeur (ouvre le gestionnaire des tâches sur ton bureau en Idle et regarde le pourcentage de processeur utilisé (0 ou 1% normalement) puis bouge ta souris dans tout les sens et tu verra que la consommation processeur augmente).
 
Et oui tu peux très bien mettre ton écran sur 144Hz alors que ta CG balance que 60FPS mais c'est comme l'a dit Mich2Pain, ton écran affichera 2 fois la même image (certaines seront même affichée 3 fois vu que 60*2 fait moins que 144).
 
Pour la souris qui va plus vite si on met l'écran en 144Hz oui, c'est une manière de l'accélérer (bien qu'un peu couteuse ^^) et vu qu'elle ne dépend pas de la CG elle sera bien calculée (par le processeur) pour apparaître 144 fois (donc 144 positions différentes mais affichée que le nombre de fois que la CG envoie les images ^^).
 
Sinon pas mal de souris (souvent gamer) te permettent de régler la fréquence à laquelle elle envoie sa position (ou ses mouvements) au PC ou même le nombre de dpi (genre la roccat Kone XTD (ça coute quand même moins cher qu'un écran 144Hz  :D )). T'augmente le nombre de dpi et hop une souris boostée aux testostérones qui file d'un coin à un autre à une vitesse folle  :lol:, tu veux de la précision et bah t'augmente la fréquence d'envoi de mouvement.
 
Voilà   :jap:

Message cité 1 fois
Message édité par Tchewi le 14-11-2016 à 10:38:22
Reply

Marsh Posté le 14-11-2016 à 11:29:46    

Tchewi a écrit :

Euh pour info, Gsync intervient surtout quand la CG produit plus d'images que ce que l'écran peut afficher (genre la CG produit 200 FPS et l'écran ne peut en afficher que 120). Si ta CG est pas capable de te fournir les 120 FPS bah Gsync va pas te créer des images par magie. Il va manquer des images sur une seconde c'est tout. Gsync est surtout conçu pour ne pas envoyer une image au moniteur alors qu'il n'a pas fini d'afficher la précédente.
 


 
C'est faux, Gsync intervient tout le temps, ce que Gsync fait c'est adapter la fréquence du moniteur sur les fps que lui envois la carte graphique. Donc si tu lui envois 77fps ton écran sera en 77hz, ce qui évite toute déformation et input lag.

Reply

Marsh Posté le 14-11-2016 à 12:21:49    

Ah oui, en effet. Mea culpa. C'est V-Sync qui adapte la CG au moniteur.
Mon écran (qui est G-Sync) m'a induit en erreur. Vu que quand j'active G-Sync et que je choisis 120 Hz. Lorsque je vais sur les options de l'écran (physiquement) il me met toujours qu'il est en 120 Hz quoi qu'il arrive alors que si je met un monitoring je vois bien les FPS varier ;)

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed