GTX 2000 ou GTX 3000, quelle différence ? - Carte graphique - Hardware
Marsh Posté le 08-12-2021 à 11:49:32
La différence se situe surtout au niveau du ray-tracing
Une GTX 2000 sera beaucoup moins puissante en RT qu'une GTX 3000, donc si tu achète une RTX 2060 12 Go, tu devra faire une croix sur le RT
Mais sinon, en rasterisation, ça reste bon
Marsh Posté le 08-12-2021 à 12:32:17
| Scrabble a écrit : La différence se situe surtout au niveau du ray-tracing |
Il faudrait peut-être nuancer avec le DLSS, qui permet quand même de profiter du RT tout en gardant des perfs honorables, non ?
Marsh Posté le 08-12-2021 à 12:39:58
| Scrabble a écrit : Une GTX 2000 sera beaucoup moins puissante en RT qu'une GTX 3000, donc si tu achète une RTX 2060 12 Go, tu devra faire une croix sur le RT |
GTX ou RTX, faudrait choisir
Marsh Posté le 08-12-2021 à 14:29:57
https://www.tomshardware.com/review [...] ,4388.html
En prenant comme base 100 les perfs de la RTX 3090 on a:
RTX 3080 Ti : 98
RTX 3080 : 93
RTX 3070 Ti : 82
RTX 2080 Ti : 77
RTX 3070 : 76
RTX 3060 Ti : 70
RTX 2080 super: 67
RTX 2080 : 63
RTX 2070 super : 60
RTX 3060 : 55
RTX 2070 : 53
RTX 2060 super : 51
RTX 2060 : 45
Hiérarchie à garder en tête, car il n'est par exemple pas très intuitif qu'une 3060 Ti soit supérieure à une 2080 et même 2080 super.
La RTX 2060 12gb devrait se situer dentre la 2060 et la 2060 super, plus proche de cette dernière.
Marsh Posté le 08-12-2021 à 14:53:09
Damiou à fait un gros taf la dessus faites lui honneur plutôt qu'à TomsHardware!
https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
Marsh Posté le 08-12-2021 à 14:53:10
| bobar a écrit : https://www.tomshardware.com/review [...] ,4388.html La RTX 2060 12gb devrait se situer dentre la 2060 et la 2060 super, plus proche de cette dernière. |
Je n'ai pas parcouru le lien, mais est-ce qu'il prend en compte le raytracing ?
Car c'est un peu le critère qui ferait choisir une RTX plutôt qu'une GTX ou une RX chez AMD, en dehors des perfs pures bien entendu.
Edit : trotar pour damiou sorry ![]()
Marsh Posté le 08-12-2021 à 14:53:35
| artouillassse a écrit : |
non pas de prise en compte
Marsh Posté le 08-12-2021 à 14:57:29
J'suis pas gamer, mais le RTX avec DLSS pas trop prononcé sur une 2060 par exemple, ça rend bien ?
Ce que j'ai compris du DLSS c'est qu'il y a plusieurs niveaux, genre vitesse, qualité, grande qualité, un peu comme un rendu sur une vidéo.
Marsh Posté le 08-12-2021 à 15:48:27
| baits a écrit : Damiou à fait un gros taf la dessus faites lui honneur plutôt qu'à TomsHardware! |
C'est très bien tout ça, sans renier personne, l'ensemble est complémentaire et ça permet de croiser les résultats
Marsh Posté le 08-12-2021 à 15:56:09
| artouillassse a écrit : |
C'est honteux
Dans le topic, j'ai fais un classement distinct pour les performances en Raytracing, c'est la touche HFR.
| Citation : J'suis pas gamer, mais le RTX avec DLSS pas trop prononcé sur une 2060 par exemple, ça rend bien ? |
Ca va dépendre des jeux et de la résolution mais en jouant sur les options graphiques en jeu, une 2060 fera tout tourner en full Hd avec un framerate décent tant que le Ray tracing est désactivé. En l'activant en racanche, elle prend vraiment très cher dans pas mal de jeux et notamment dans ceux où le raytracing a une vraie pluevalue en terme de rendu comme Cyberpunk ou Control.
Pour le DLSS le problème, avec la 2060 c'est ça veux dire jouer en full HD et je trouve que la dégradation de l'image avec le DLSS se voit beaucoup plus nettement à cette résolution. Néanmoins, c'est bien mieux que de simplement afficher une résolution inférieure à celle du moniteur donc ça reste une solution de secours si ça devient nécessaire.
A mon avis, pour les 5/6 années à venir, ça risque d'être un peu juste mais pour orienter convenablement grostheo, il faudrait connaître la résolution et le type de jeux visés ainsi que le reste de sa config.
Marsh Posté le 08-12-2021 à 16:07:20
| damiou_03 a écrit : Pour le DLSS le problème, avec la 2060 c'est ça veux dire jouer en full HD et je trouve que la dégradation de l'image avec le DLSS se voit beaucoup plus nettement à cette résolution. Néanmoins, c'est bien mieux que de simplement afficher une résolution inférieure à celle du moniteur donc ça reste une solution de secours si ça devient nécessaire. |
Ah ouais ?
Ca veut dire que le DLSS en 1080p met des textures en 640p/720p ?
Mais du coup pourquoi est-ce qu'en 1440p par exemple on ne voit pas autant les dégradations avec des textures en 1080p, ou en 4K avec textures en 1440p, si c'est comme ça que ça marche ?
Marsh Posté le 08-12-2021 à 16:36:58
| artouillassse a écrit : |
C'est ça, c'est de l'upscaling, il part d'une résolution inférieure pour afficher l'image à la résolution de ton écran.
Pour le fait que ça marche moins bien en 1080p qu'en 4k, il y a une raison technique : il y a moins de détail dans l'image source à upscaler donc il est plus difficile pour l’algorithme d'aboutir à un résultat décent.
A moins avis, il y a certainement aussi une raison raison liée au fait que l’œil est moins sensible à une dégradation d'une image 4k (on commence à trouver des gens qui ont du mal à voir la différence en montant en résolution).
A titre perso, ce qui me gène le plus avec le DLSS, c'est que je perçois une différence de qualité entre les scènes statique (très réussies) et les scènes en mouvement (beaucoup plus floues) qui est assez désagréable.
Marsh Posté le 08-12-2021 à 16:48:42
Vous utilisez vraiment le ray tracing?
Perso dans le peu de jeu où j'ai eu l'occasion ça bouffait tellement de perf pour rien que je l'ai viré. (Cyberpunk, BF5, Doom ethernal)
Marsh Posté le 08-12-2021 à 16:49:16
Bon c'est un peu HS le DLSS sur ce topic, mais tant que je t'ai sous la main.
Il me semblait que le DLSS ne jouait pas forcément sur toute l'image, mais juste sur une partie des textures.
Par exemple les textes ne sont pas pris en compte par le DLSS il me semble, ça veut donc dire qu'il y a bien des parties de l'image qui ne sont pas traitées, ou peut-être que le traitement des textes bénéficie d'un code particulier.
C'est un peu tout l'intérêt du DLSS et de l'apprentissage, c'est proche de l'IA il me semble le DLSS non ?
| iparmenioni a écrit : Vous utilisez vraiment le ray tracing? |
D'où le developpement du DLSS qui est justement sensé palier la chute de FPS résultant du RT.
Après, de ce que j'ai vu le RT est soit sans effet, soit avec un tel effet que le jeu est complètement métamorphosé.
Du coup le besoin du DLSS ne tient que dans les jeux qui bénéficient du RT.
Et dans ce cas le RT peut avoir du sens associé au DLSS, je ne m'en rends pas compte n'étant pas gamer, mais je suis certains que ceux qui utilisent RT+DLSS sur leur jeu sont contents.
Marsh Posté le 08-12-2021 à 17:31:35
Exact, le rendu 3D se fait en résolution inférieure puis il upscale. Les éléments de l'UI sont laissés en résolution native. C'est la même chose sur ce point que le FSR d'AMD ou quand un jeu te permet de modifier la résolution de rendu sans affecter la résolution de l'affichage (mais dans ce dernier cas, il n'y a pas vraiment de filtre d'upcaling). En revanche, sauf erreur, le DLSS effectue bien l'upscale sur l'ensemble de la scène 3D mais il utilise l'IA pour reconstruire l'image. Typiquement, dans l'exemple que tu donnes, quand il y a de l'écriture, le rendu est très bon, souvent supérieurs au rendu en résolution native (d’ailleurs dans la com d'Nvidia, tu remarqueras qu'il te mettent quasiment toujours un petit zoom sur de l'écriture pour vanter le DLSS). Il s'aide aussi des images rendus précédemment pour effectuer l'upscale.
Pour le RTX, je trouve parfois que ça apporte un vrai plus (c'est pour ça que j'avais cité Control et Cyberpunk où j'ai trouvé que ça apporte vraiment quelque chose en terme d'ambiance). Après, il y a plein de jeux où c'est anecdotique (battlefield 5 , Tomb Raider notamment). Mais bon, comme toute techno, ça dépend de ce qu'en font les développeurs et comme c'est (relativement) récent dans le jeux vidéo, il faut aussi qu'ils apprennent à l'utiliser correctement. A titre perso, il y a un paquet de techno graphique dont je trouvais le rendu horrible quand elle sont sorties et qui sont très bien utilisés maintenant (genre le HDR dans Oblivion, les filtres de netteté dans the Witcher 2).
Comme c'est amené à se démocratiser, ça ne me semble quand même important de le prendre en compte à l'achat d'un nouveau GPU.
Marsh Posté le 08-12-2021 à 17:40:22
| damiou_03 a écrit : Il s'aide aussi des images rendus précédemment pour effectuer l'upscale. |
Ca j'ai du mal à le concevoir en fait, comment il peut décréter que l'image précédente est bien rendue ?
Je pige le concept du deep learning mais j'arrive pas à intégrer la notion de choix qu'un image est belle ou pas dans le concept.
| damiou_03 a écrit : Pour le RTX, je trouve parfois que ça apporte un vrai plus (c'est pour ça que j'avais cité Control et Cyberpunk où j'ai trouvé que ça apporte vraiment quelque chose en terme d'ambiance). |
Et du coup le RT+DLSS sur les cartes qui peuvent pas envoyer du RT natif, t'as testé ?
Mais c'est vrai que RT + DLSS, plus le direct storage de microsoft qui viendra dans quelques années, ça pourrait vraiment apporter plein de choses dans le milieu du dev gaming.
Bon, c'est un peu au détriment du contenu des jeux qui s'appauvrit avec le temps, sauf pépites indé qui n'utilisent pas ces techno avant-gardes.
Marsh Posté le 08-12-2021 à 17:56:25
Si ça ne te dérange pas, je te réponds sur le topic dans ma signature pour ne pas pourrir celui de l'OP !
Marsh Posté le 08-12-2021 à 18:22:53
| damiou_03 a écrit : Si ça ne te dérange pas, je te réponds sur le topic dans ma signature pour ne pas pourrir celui de l'OP ! |
Oui désolé, j'y vais d'un pas alerte.
Marsh Posté le 08-12-2021 à 11:13:17
J'ai beau avoir fait le tour des sites, je comprends pas la réelle différence en terme de puissance graphique en jeu entre la série 2060/2080 et 3060/3080 ?
Une 3060 sera-elle forcément plus viable dans le temps ?
Une 2060 actuelle est-elle bonne à prendre pour tenir 5/6 ans ?