RTX 2080 et seulement 60 Fps en 4K

RTX 2080 et seulement 60 Fps en 4K - Carte graphique - Hardware

Marsh Posté le 25-09-2018 à 11:45:31    

Bonjour,
Je suis déçu de voir que le haut de gamme des RTX , ne fasse tourner les jeux en 4K , qu'à 60 FPS.
Je ne posséde pas ce genre de GPU et pas d'écran 4K.  
A ce prix là , jouer en 4K est totalement innabordable je trouve... Je trouve cette technologie beaucoup trop chére (4K,144Hz,RTX 2000).
Et vous ?  


---------------

Reply

Marsh Posté le 25-09-2018 à 11:45:31   

Reply

Marsh Posté le 25-09-2018 à 11:47:57    

Oui, le jeu en 4k est extrêmement consommateur de puissance…
 
Maintenant personnellement je joue en 2k60 sur un 32" (avec une 1080) je trouve le niveau de détail de l'image déjà très appréciable ;)


---------------
https://www.flickr.com/photos/182924845@N04/
Reply

Marsh Posté le 25-09-2018 à 11:59:06    

Hello, le 4k est pas non plus un requis pour avoir une expérience de jeu décente. L'énorme majorité des joueurs peut jouer très confortablement en 1080p avec une CG à 200 euros.  
Si on veut le top, là il faut sortir l'artillerie lourde effectivement.


---------------
Mon petit Feedback avant que cela soit gérée de manière autonome par le site
Reply

Marsh Posté le 25-09-2018 à 14:12:02    

le problème c'est de vouloir la 4K  :fou: c'est déjà largement suffisant en 640x480  :o

Reply

Marsh Posté le 25-09-2018 à 14:15:09    

Je joue en 1080p ,mais j'aimerai passer à la 2K. Les écrans sont encore un peu chers pour moi...


---------------

Reply

Marsh Posté le 25-09-2018 à 14:16:37    

Un 4-Way SLI de RTX 2080TI et tu joues en 4K à plus de 60fps :o


---------------
Mon Feed-back
Reply

Marsh Posté le 25-09-2018 à 16:45:47    

je vais peut-être passer pour un nulos, mais pour afficher + de 60 Fps il faut un écran avec une fréquence + élevé (ex: 144hz) , non? La plupart des moniteurs 4K sont en 4K/60Fps. Sauf si vous avez des écrans 4K / 144hz et auquel cas je me retire tranquillement de cette discussion... Je ne savais même pas que ça existait des écrans 4K à + de 60 hz.

Reply

Marsh Posté le 25-09-2018 à 16:50:14    

Oweak a écrit :

je vais peut-être passer pour un nulos, mais pour afficher + de 60 Fps il faut un écran avec une fréquence + élevé (ex: 144hz) , non? La plupart des moniteurs 4K sont en 4K/60Fps. Sauf si vous avez des écrans 4K / 144hz et auquel cas je me retire tranquillement de cette discussion... Je ne savais même pas que ça existait des écrans 4K à + de 60 hz.


C'est uniquement valable si la synchronisation verticale est activée.

Reply

Marsh Posté le 25-09-2018 à 16:52:05    

Crozenfox a écrit :


C'est uniquement valable si la synchronisation verticale est activée.


Quel intérêt d'avoir un FPS plus élevé que la fréquence de l'écran à part se taper du tearing ?  :??:


---------------
https://www.flickr.com/photos/182924845@N04/
Reply

Marsh Posté le 25-09-2018 à 17:03:35    

si tu bloques les fps à 120 sur un écran 60 htz sans syncro verticale  
tu n'auras pas de tearing ;)  

Reply

Marsh Posté le 25-09-2018 à 17:03:35   

Reply

Marsh Posté le 25-09-2018 à 17:23:41    

En jeu c’est le 1440 144hz qu’il faut :o


Message édité par mrdoug le 25-09-2018 à 17:23:54
Reply

Marsh Posté le 25-09-2018 à 17:27:28    


... Et tu verras une frame sur deux à l'écran, donc les 60 autres sont parfaitement inutiles à part faire chauffer ton gpu et consommer de l'énergie pour rien :)


Message édité par zerist le 25-09-2018 à 17:27:48

---------------
https://www.flickr.com/photos/182924845@N04/
Reply

Marsh Posté le 25-09-2018 à 17:59:47    

l'imput lag étant directement lié au frame time  
sur certains jeux c'est loin d'être inutile ;)
 
sur d'autres par contre , ça l'est totalement  :D


Message édité par Profil supprimé le 25-09-2018 à 18:30:32
Reply

Marsh Posté le 28-09-2018 à 23:25:27    

Bien sûr, vous vous souvenez pas qu'on essayait de jouer avec + de 200fps sur Q3 à l'époque pour bunnyhop plus vite ?

Reply

Marsh Posté le 29-09-2018 à 09:26:24    

Ben c'est clair que le 4k/144hertz est beaucoup trop cher.  
Bon déjà avoir plus de 60 fps n'est pas utile pour un certain nombre de jeu qui bloque le nombre  de fps à 60.  
Il y a même en tout cas un jeu qui bloque le nombre de fps à 48 (crash bandicoot) et pourtant le jeu est super fluide.  
Pour la résolution de l'écran il y a aussi un certain nombre de jeux qui ont des graphismes pourri, du coup en 4K on a une belle définition  
pour des graphismes pourri.  :lol:  
(perso en 1400p je passe déjà mon temps à voir si le jeu est beau avant de l'acheter ou pas et il y en a un grand nombre qui ont des graphismes pourri)  
Niveau qualité de résolution (full HD, 1400p, 4K) il y a aussi la qualité de l'écran qui joue un rôle ultra important, si on a un écran 4 K de mauvaise  
qualité d'image, on a tout perdu (la carte graphique coute ultra cher) pour une qualité qui n'est pas au top.  
Après il y a aussi la technologie (fresync/freesync2/Gsync).  
Il y a pamal de personnes qui ont mon écran C32HG70 freesync 2 1400p car moins cher que la technologie gsync
avec une carte moyen de gamme (rx470/480/570/580) et qui ont une image juste magnifique (plus joli que certain écran 4K)
et le freesync 2 aide pour le nombre de fps.  
J'en déduis que vouloir jouer à 144 fps minimum dans une qualité correcte coute plus cher que vouloir jouer en 1400p avec une image magnifique
puisque l'écran 1400p on le garde, contrairement à la carte graphique qui doit sans cesse être au top pour être à 144 fps.

Reply

Marsh Posté le 29-09-2018 à 10:13:23    

@max022
Encore une fois ça dépend à quoi tu joues, ça dépend de tes préférences, perso je préfère jouer en plus basse résolution à plus gros framerate (j'hésite pas à passer certains jeux en 1280/720 avec ma 1060 pour tenir les 144fps) en plus de l'input lag qui est considérablement réduit, même sur un jeu casu type gta il me faut le plus de frames possibles parce que je préfère la réactivité aux graphismes. Chacun son truc ;)

Reply

Marsh Posté le 29-09-2018 à 10:23:51    

Mais comme ces cartes utilisent de "nouvelles" technologies, ne peut on pas espérer que les futurs jeux seront optimisés pour plus en tirer parti et ainsi permettre plus de FPS (ou d'effets) ?

Reply

Marsh Posté le 29-09-2018 à 11:24:12    

gima56 a écrit :

Mais comme ces cartes utilisent de "nouvelles" technologies, ne peut on pas espérer que les futurs jeux seront optimisés pour plus en tirer parti et ainsi permettre plus de FPS (ou d'effets) ?


 
Comme le physx ?  :whistle:
Si c’est limité à nvidia, les développeurs ne vont pas se fouler.

Message cité 1 fois
Message édité par mrdoug le 29-09-2018 à 11:27:28
Reply

Marsh Posté le 29-09-2018 à 11:43:26    

Sauf si nvidia possède l'écrasante majorité du marché  :o  
Y'a bien des jeux Glide qui sont sortis à l'époque où 3DFX était à son apogée. C'est un pari qu'ils font, peut-être que le ray tracing sera au départ boudé par les devs, mais si nVidia garde la main sur le marché suffisament longtemps, les prochaines gammes auront aussi ce ray tracing et là il commencera à être adopté. Ce qui ne fera que creuser l'écart avec AMD, qui se retrouvera à courir derrière nVidia pour arriver à créer un truc "ray tracing compatible", qui sera probablement moins optimisé...
Bref on risque le gros monopole, pire que ce qu'on a actuellement.

Reply

Marsh Posté le 29-09-2018 à 13:07:42    

mrdoug a écrit :


 
Comme le physx ?  :whistle:
Si c’est limité à nvidia, les développeurs ne vont pas se fouler.


Y'a déjà plein de jeux qui utilisent des technologies exclusives à nvidia, the witcher avec hairWorks, far cry 4 qui a un niveau "nvidia machin" au-dessus de l'ultra dans quasiment tous les paramètres...  
 
Et c'est que les jeux de ma modeste bibliothèque ça


---------------
https://www.flickr.com/photos/182924845@N04/
Reply

Marsh Posté le 29-09-2018 à 13:40:04    

xphanoo a écrit :

Sauf si nvidia possède l'écrasante majorité du marché  :o  
Y'a bien des jeux Glide qui sont sortis à l'époque où 3DFX était à son apogée. C'est un pari qu'ils font, peut-être que le ray tracing sera au départ boudé par les devs, mais si nVidia garde la main sur le marché suffisament longtemps, les prochaines gammes auront aussi ce ray tracing et là il commencera à être adopté. Ce qui ne fera que creuser l'écart avec AMD, qui se retrouvera à courir derrière nVidia pour arriver à créer un truc "ray tracing compatible", qui sera probablement moins optimisé...
Bref on risque le gros monopole, pire que ce qu'on a actuellement.


 
Oui bon j'y crois moyennement que le Ray tracing soit le nouvelle norme, en tout cas pour l'instant c'est plus un flop en raison du rapport  perf/prix qu'autre chose.  
Déjà que le pc gaming performant est un flop par rapport aux consoles (voir les chiffres steam des cartes HDG), alors le ray tracing qui fait augmenter le prix soit
la nouvelle norme ben cela me rend très perplexe.  
Le ray tracing aurait été introduit à une époque ou les cartes graphiques n'étaient pas hors de prix, pourquoi pas, mais la, je pense que la concurrence se fera (car pour l'instant il n'y a personne)  
sur le rapport perf/prix et non sur des technologies high tech couteuses. (et c'est loin d'être évident qu'il y ait que AMD et Nvidia en concurrence au moment ou on aura enfin des prix correct)


Message édité par max022 le 29-09-2018 à 13:43:46
Reply

Marsh Posté le 29-09-2018 à 15:01:27    

xphanoo a écrit :

Sauf si nvidia possède l'écrasante majorité du marché  :o  
Y'a bien des jeux Glide qui sont sortis à l'époque où 3DFX était à son apogée. C'est un pari qu'ils font, peut-être que le ray tracing sera au départ boudé par les devs, mais si nVidia garde la main sur le marché suffisament longtemps, les prochaines gammes auront aussi ce ray tracing et là il commencera à être adopté. Ce qui ne fera que creuser l'écart avec AMD, qui se retrouvera à courir derrière nVidia pour arriver à créer un truc "ray tracing compatible", qui sera probablement moins optimisé...
Bref on risque le gros monopole, pire que ce qu'on a actuellement.


Diablo II LOD en glide  :) .

Reply

Marsh Posté le 29-09-2018 à 15:37:09    

xphanoo a écrit :

Sauf si nvidia possède l'écrasante majorité du marché  :o  
Y'a bien des jeux Glide qui sont sortis à l'époque où 3DFX était à son apogée. C'est un pari qu'ils font, peut-être que le ray tracing sera au départ boudé par les devs, mais si nVidia garde la main sur le marché suffisament longtemps, les prochaines gammes auront aussi ce ray tracing et là il commencera à être adopté. Ce qui ne fera que creuser l'écart avec AMD, qui se retrouvera à courir derrière nVidia pour arriver à créer un truc "ray tracing compatible", qui sera probablement moins optimisé...
Bref on risque le gros monopole, pire que ce qu'on a actuellement.

A la différence près que le Glide permettait d'avoir un bien meilleur graphisme et un bien meilleur framerate :o


---------------
Ma cinémathèque
Reply

Marsh Posté le 29-09-2018 à 21:36:31    

Papaschultz85 a écrit :

Je joue en 1080p ,mais j'aimerai passer à la 2K. Les écrans sont encore un peu chers pour moi...


 
Pour info, la 2K c'est précisemment le 1080p.


---------------
Mes ventes:
Reply

Marsh Posté le 29-09-2018 à 23:28:10    

Bizarrement j'associais 2K à QHD (1440p -> 2560x1440), mais ça n'a pas de sens effectivement.

Reply

Marsh Posté le 30-09-2018 à 07:27:52    

Papaschultz85 a écrit :

Bonjour,
Je suis déçu de voir que le haut de gamme des RTX , ne fasse tourner les jeux en 4K , qu'à 60 FPS.
Je ne posséde pas ce genre de GPU et pas d'écran 4K.
A ce prix là , jouer en 4K est totalement innabordable je trouve... Je trouve cette technologie beaucoup trop chére (4K,144Hz,RTX 2000).
Et vous ?  


Je comprend pas, c’est quoi la question ?
Tu cherche à fabriquer des ordinateurs qui pour 50€ te permettront de jouer en 16k?

 

Oui c est chère le 4K

 


Sinon , moi je suis contre les maladies incurable, je trouve ça inadmissible en 2018 qu’il y en ai encore.
Et vous ?

 


J’adore cette formulation, le petit «et vous? » ça fait tellement pute-à-click


Message édité par Z_cool le 30-09-2018 à 07:30:36

---------------
#mais-chut
Reply

Marsh Posté le 30-09-2018 à 23:01:16    

xphanoo a écrit :

Bizarrement j'associais 2K à QHD (1440p -> 2560x1440), mais ça n'a pas de sens effectivement.


 
En faites c'est le premier chiffre qui détermine le nombre de K (enfin c'est ce que j'ai lu sur un forum, je ne suis pas sure à 100/100) :  
1980*1080 = 1.98 K
2560*1440 = 2.560 K  
 

Reply

Marsh Posté le 30-09-2018 à 23:11:03    

max022 a écrit :


 
En faites c'est le premier chiffre qui détermine le nombre de K (enfin c'est ce que j'ai lu sur un forum, je ne suis pas sure à 100/100) :  
1980*1080 = 1.98 K
2560*1440 = 2.560 K  
 


C'est pas encore ça non plus.
4K == Définition horizontale >  4 096 pixels.  
La définition 4K DCI est en fait basée sur la même que la 2K DCI, mais doublée  :p  
 
Là où ça se complique, c'est qu'il y a des formats d'images (ratio) qui font que la définition verticale varie et qui font même varier la définition horizontale au point où certains formats 4K font 5000 pixels de large. C'est plutôt dingue.
Par contre cette définition justifie à elle seule que l'UHD (3840x2160) ne soit pas de la 4K. Mais qui n'explique pas qu'un format 4K 1,85:1 soit définit par une définition de  3 996 × 2 160

Reply

Marsh Posté le 01-02-2019 à 14:01:17    

zerist a écrit :


Quel intérêt d'avoir un FPS plus élevé que la fréquence de l'écran à part se taper du tearing ?  :??:


Sur des jeux nerveux, type FPS compétitif (CSGO, R6, Overwatch ...) tu auras plus de chance de te taper une image plus récente généré par ton GPU et donc une meilleur réactivité (même si l'image est partielle) avec un écran 60 Hz.
Donc la sensation de réactivité sera meilleur que locké les FPS à 60 (je ne parle pas de la VSYNC ! ).

Reply

Marsh Posté le 01-02-2019 à 15:51:34    

Oui bon en tout cas il y a pamal de personnes qui disent que ce n'est pas le moment d'acheter une 2080.  
Déjà elle ont 8 GO de VRAM alors que la concurrence va sortir du 16 GO de VRAM mais en plus d'ici 2020  
on aura 3 concurrents : Nvidia, AMD et INTEL  et les prix vont sans doute baisser en raison de cette concurrence.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed