Les GPU NVIDIA déjà limités à cause de leur VRAM... - Carte graphique - Hardware
Marsh Posté le 09-10-2021 à 18:27:30
Salut,
Je pense que tout les possesseurs de 3070/80 sont tellement deg de leur carte depuis ta news qu’ils vont certainement tous la revendre de ce pas! Nous avons tellement hâte de jouer à ce super jeu qui ce nomme far cry 6 !
Ah non en faite pas du tout .
Plus sérieusement tu ne peux pas juger une carte sur seulement un unique jeu.
Il y a des jeux qui sont plus favorisés par amd qu’nvidia et inverse en fonction de certains paramètres.
Marsh Posté le 09-10-2021 à 18:57:14
Edit : si le jeu a besoin de 11-12Go de Vram pour charger ses textures ça concerne aussi AMD dans l'absolu, en passant.
Soit le jeu est codé avec les pieds, soit je vois pas.
Apparemment le jeu souffre aussi de performances CPU single core, donc ça m'a l'air surtout d'une annonce trollesque pour relancer une énième gueguerre vert-rouge.
Si c'était pas consternant ça pourrait être drole ![]()
Marsh Posté le 09-10-2021 à 19:48:07
| kriaz a écrit : Salut, |
On est d'accord qu'on ne peut pas juger une carte sur 1 seul jeu mais c'est quand même sympomatique d'un problème.
Je veux bien blâmer ubisoft mais Nvidia à aussi sa part de responsabilité là dedans. C'est aussi aux fabricants de cartes graphiques de faire en sorte que leurs GPU puissent fonctionner correctement sur la majorité des jeux présents et à venir tout en tenant compte du fait que les développeurs optimisent de moins en moins leurs productions. AMD l'a comprit donc si la seule solution pour que NVIDIA augmente la quantité de Vram sur leur carte c'est de se faire bâcher à la place de UBISOFT alors qu'il en soit ainsi.
Et je n'ai aucune intention de relancer une quelconque guerre entre les rouges et les verts. J'ai moi même une carte Nvidia et ça me soûle de voir qu'une 3060 à plus de VRAM qu'un modèle 2 fois plus cher.
Marsh Posté le 09-10-2021 à 19:51:00
| artouillassse a écrit : |
A la différence prêt que les cartes AMD qui sont capables de faire tourner un jeu en 4K ont minimum 12 GO de Vram
Marsh Posté le 09-10-2021 à 19:54:58
| arizonadream a écrit : On est d'accord qu'on ne peut pas juger une carte sur 1 seul jeu mais c'est quand même sympomatique d'un problème. |
C'est surtout symptomatique d'un problème de codage du jeu, n'importe quel jeu du genre ne met pas à mal la vram, et spécialement celle de Nvidia quand le jeu est développé apparement pour AMD (si j'en juge le logo AMD présent sur l'image du jeu dans ton lien).
On parle de textures HD, c'est pas de la 4K, le jeu a clairement un soucis et à mon avis c'est lié au codage.
D'autant plus que le jeu a visiblement aussi un problème avec les coeurs virtuels, ça traduit également quelques lacunes en terme de développement.
| arizonadream a écrit : A la différence prêt que les cartes AMD qui sont capables de faire tourner un jeu en 4K ont minimum 12 GO de Vram |
Comme dit plus haut l'article parle de textures HD, sauf erreur de ma part.
Le gros logo AMD sur l'image titre + l'article incendiaire pour Nvidia, il n'y a qu'un pas à dire que c'est fait exprès pour jeter un pavé dans la marre de la gueguerre vert-rouge, et à ce propos je ne parlais pas de toi pour lancer la gueguerre, je parlais de l'article ![]()
Edit : ce qui est fou n'empêche c'est qu'on parle vraiment de textures HD, alors que même sur des jeux en 4K ça passe crême avec 8GO de ram, il y a clairement un problème, ou une tentative désespérée de vendre des cartes AMD.
Je ne suis pas fanboy, autant AMD que Nvidia, j'ai eu de tout, si je dois acheter une carte graphique ce sera celle qui permet de jouer dans de bonnes conditions et à prix correct, je me fous de la marque tant que c'est fonctionnel
Marsh Posté le 09-10-2021 à 20:03:35
| artouillassse a écrit : |
| artouillassse a écrit : |
Ah oui l'article cherche probablement à mettre de l'huile sur le feu comme tu dis. Espérons que tu aies raison et que les jeux mieux codés n'auront pas ce genre de problèmes à l'avenir mais comme les développeurs font de moins en moins d'efforts d'optimisation j'ai peur que cela ne devienne récurrent.
Marsh Posté le 09-10-2021 à 20:08:36
| arizonadream a écrit : Ah oui l'article cherche probablement à mettre de l'huile sur le feu comme tu dis. Espérons que tu aies raison et que les jeux mieux codés n'auront pas ce genre de problèmes à l'avenir mais comme les développeurs font de moins en moins d'efforts d'optimisation j'ai peur que cela ne devienne récurrent. |
Ben comme dit plus haut ça me parait bizarre qu'un jeu HD ait besoin de + de 11Go de Vram alors qu'un jeu 4K se satisfait de 8Go.
Si les dev et les créatifs de jeux pouvaient se concentrer davantage sur le fond que la forme ça serait quand même vachement bénéfique pour tout le monde.
Perso je ne suis pas gamer mais je suis le truc un peu par obligation en trainant sur le fofo, et je me rends compte que les gamers se plaignent de jeux qui sont de plus en plus formatés, avec les mêmes mécaniques de jeu, que tout finit par se ressembler (sauf pépites indé bien sûr).
Les dev se pompent dessus quand une idée est bonne, ils l'intègrent dans leur jeu et zou ça vend.
Ca ressemble un peu au rap game à l'époque, ce qui a tué le rap, soit dit en passant.
Marsh Posté le 09-10-2021 à 20:13:27
| artouillassse a écrit : |
Moi j'ai peur que Far Cry 6 ne soit que le premier de la liste à montrer les limites d'une carte graphique avec une faible quantité de Vram et que tous les jeux next gen risque de suivre cette tendance
Marsh Posté le 09-10-2021 à 20:19:17
| arizonadream a écrit : Moi j'ai peur que Far Cry 6 ne soit que le premier de la liste à montrer les limites d'une carte graphique avec une faible quantité de Vram et que tous les jeux next gen risque de suivre cette tendance |
Franchement ça m'étonnerait énormément vu la façon dont sont dev les jeux d'aujourd'hui pour la 4K.
Il n'y a pas ce problème qui empêche le démarrage du jeu si j'ai bien lu.
Surtout que bordelaku on parle d'un jeu en HD, de la HD gros, pas de la 8K.
Ils ont merdé le dev, et en plus le jeu est une pâle copie du 5 avec quelques changement, ça ressemble de plus en plus à un Just Cause 12.
Un peu affligeant de la part d'un gros studio, surtout qu'on dirait qu'ils ont fait exprès de pénaliser les cartes Nvidia, alors que le marché est plutôt à l'avantage de Nvidia.
C'est se tirer une balle dans le pied en gros, à moins qu'ils se sortent les doigts du fion et qu'ils patchent le jeu pour que les clients Nvidia qui pourraient le prendre leur filent des sous ![]()
Marsh Posté le 09-10-2021 à 20:29:30
| artouillassse a écrit : |
Oui le jeu n'a rien de transcendant, je suis d'accord. Il ne m'intéresse pas plus que ça mais j'ai jugé bon de partager l'article. L'avenir nous dira si ce genre de problème persiste sur d'autres jeux . ![]()
Marsh Posté le 09-10-2021 à 20:52:32
UbiSoft n'a rien à se reprocher, Nvidia non plus
UbiSoft a raison de lancer des options facultatives dans un JV qui utilisent les grandes quantités de VRAM des CG AMD
Nvidia a raison de limiter la quantité de VRAM à 8 Go dans la plupart de ses CG, sachant qu'une quantité supérieure n'avait pas d'utilité immédiate, et aurait grevé le prix de vente (Surtout les CG avec GDDR6X)
Après, perso, ayant déjà une RX VEGA 64 et une RX 5700, c'est clair que ma prochaine CG aura au minimum 12 Go de VRAM, donc pour l'instant, ça élimine pas mal de modèles Nvidia (La RTX 3060 étant trop faible pour moi, bien qu'étant dans l'absolu un très bon modèle)
Ne reste plus qu'à allumer un cierge à Lourdes pour espérer que la pénurie s'arrête en Janvier
Marsh Posté le 09-10-2021 à 20:57:12
| Scrabble a écrit : UbiSoft a raison de lancer des options facultatives dans un JV qui utilisent les grandes quantités de VRAM des CG AMD |
Ahhhh bah si c'est une option désactivable qui n'empêche pas du tout de jouer avec une Nvidia alors je retire ce que j'ai dit.
C'est juste un journaleux merdique qui tente de se donner une contenance avec un article pourri, du classique quoi ![]()
Marsh Posté le 09-10-2021 à 22:08:17
La vidéo est un fake:
https://youtu.be/CZxzbAKUk0w?t=382
Vous mettez en hd et en pause, il y a pas de RT sur la 6700.
Et c'est comme ça tout le long de la vidéo, les réglages ne sont pas identiques, comparaison bidon.
Marsh Posté le 10-10-2021 à 08:24:01
En plus je pige pas en quoi une RX 6600XT avec 8Go aurait plus de mémoire qu'une 3060 avec 8Go.
Qu'on me contredise si j'me gourre mais ce sont deux cartes équivalentes non ?
Marsh Posté le 10-10-2021 à 09:04:46
| Scrabble a écrit : Une RTX 3060 a 12 Go de GDDR6 |
Ah oui my bad c'est la 3060Ti qui fait 8Go ![]()
Marsh Posté le 10-10-2021 à 11:15:23
| artouillassse a écrit :
|
Ce qui est d'autant plus con d'ailleurs.
La 3060 est taillée pour du 1080p alors que la Ti, qui est environ 30% plus perf, est plutot tournée pour du 1440p
Par contre je rejoins totalement l'auteur du topic. 10GO pour une carte taillée pour du 4K c'est clairement ridicule. Mais bon c'est coutume chez nvidia.
Pour info, avec ma 2070 super et ses 8Go de ram, il est pas rare que je frole les 8go d'utilisation en 1080p.
J'ai aussi testé ce patch sur Far Cry 6 (très bon jeu en passe
), je dépasse pas les 8Go de ram mais les textures sont dégueulasses, surement parce que j'ai justement pas assez de vram
Marsh Posté le 10-10-2021 à 11:19:54
| mrdoug a écrit : Pour info, avec ma 2070 super et ses 8Go de ram, il est pas rare que je frole les 8go d'utilisation en 1080p. |
Ca me parait dingue, non pas que je te crois pas mais j'ai pu voir pas mal de vidéo en 4K sur des jeux connus et les 8Go sont en effet souvent atteints voir dépassés, mais pour du FHD ça me parait aberrant de saturer 8Go.
Les jeux : shadow of the TR, BF5, et surement plein d'autres, la vram pour du 4K est sous les 9Go mais ça me choque pas tellement, pour du FHD par contre je vois pas pourquoi ça consommerait autant.
J'ai pu voir cependant qu'avec une 3080Ti en FHD sur Shadow of the TR on a la vram chargée à 70% environ, ce qui fait en effet 8GO de vram, mais une autre vidéo avec une RTX 2070 montre une vram à 5Go environ. Sans doute le type a la 3080Ti a plus d'options gourmandes en ram, à moins que ce soit pour la raison évoquée ci-après.
Du coup j'imagine que le jeu va consommer plus de vram sur une carte que sur une autre, selon sa capacité de vram réelle. Un peu comme sous windows quand tu as plein de ram versus quand tu en as moins pour la même utilisation.
Sur quels jeux tu observes ça ?
Marsh Posté le 10-10-2021 à 12:05:26
https://www.techpowerup.com/review/ [...] nce/4.html
Les perfs des RTX n'ont pas de souci chez TPU. Max détails + RT OFF. (lire la conclusion aussi)
Un peu de stuttering sur la RTX 3080 avec le pack HD en 4K + RT + Max détails. (sans FSR/DLSS)
Marsh Posté le 10-10-2021 à 12:41:19
| artouillassse a écrit :
Les jeux : shadow of the TR, BF5, et surement plein d'autres, la vram pour du 4K est sous les 9Go mais ça me choque pas tellement, pour du FHD par contre je vois pas pourquoi ça consommerait autant. J'ai pu voir cependant qu'avec une 3080Ti en FHD sur Shadow of the TR on a la vram chargée à 70% environ, ce qui fait en effet 8GO de vram, mais une autre vidéo avec une RTX 2070 montre une vram à 5Go environ. Sans doute le type a la 3080Ti a plus d'options gourmandes en ram, à moins que ce soit pour la raison évoquée ci-après. Du coup j'imagine que le jeu va consommer plus de vram sur une carte que sur une autre, selon sa capacité de vram réelle. Un peu comme sous windows quand tu as plein de ram versus quand tu en as moins pour la même utilisation. Sur quels jeux tu observes ça ? |
Far Cry 5 avec les textures HD ou encore Cyberpunk. Pour Cyberpunk je monte à 7.6 Go, je viens de tester à l'instant. (en ultra sans le RT)
Marsh Posté le 10-10-2021 à 12:46:36
| mrdoug a écrit : Far Cry 5 avec les textures HD ou encore Cyberpunk. Pour Cyberpunk je monte à 7.6 Go, je viens de tester à l'instant. (en ultra sans le RT) |
Cyberpunk sans commentaire
FC5 ça doit dépendre des options, je trouve une vidéo YT avec une 1060 6go qui n'est chargée qu'à 3Go environ, le gars est également en ultra mais ne précise rien d'autre : https://www.youtube.com/watch?v=yvPgOdpu7s0
En tout cas le test chez TPU dément l'idée qu'il est impossible de jouer avec une RTX si on a moins de 11Go, ce que met en avant cet article bien pourri.
Marsh Posté le 10-10-2021 à 12:47:29
ReplyMarsh Posté le 10-10-2021 à 12:50:59
| arizonadream a écrit : Pour info, New World demande aussi plus de 11 Go de Vram en 4K |
Pas selon ce lien : https://www.warlegend.net/configura [...] deathloop/
Une RTX 3080 avec ses 10Go suffit.
Edit : warlegend n'est pas l'éditeur, j'ai été un peu vite ![]()
C'est Amazon games l'éditeur
Edit² : p*tain j'suis pas réveillé, j'ai dit nawak, my bad.
Par contre d'après cet article il faut une 2070 pour jouer en 4K : https://www.miroir-mag.fr/pop-cultu [...] es-du-jeu/
La 2070 n'a pas plus de 11Go que je sache ![]()
Ce serait bien d'éviter de propager ce genre d'informations erronnées sur HFR, on est pas sur un forum kikoolol c'est sérieux ici ![]()
L'article bidon + l'info sur new world, il faut vérifier tes sources.
Marsh Posté le 10-10-2021 à 15:39:27
| artouillassse a écrit : |
Il y a des vidéos sur Youtube ou l'on voit que selon les zones, le jeu charge allègrement plus que 8Go de textures dans sa Vram. Donc même une 3070 TI est à la limite.
Ps: Je me réfère à des cas pratiques ou à des retours de joueurs plus qu'à des articles.
Marsh Posté le 10-10-2021 à 15:40:52
| mrdoug a écrit : Par contre je rejoins totalement l'auteur du topic. 10GO pour une carte taillée pour du 4K c'est clairement ridicule. Mais bon c'est coutume chez nvidia. |
A l'époque les puces de GDDR6X n'existaient pas avec une densité de 2gb (et n'existent toujours pas pour l'instant). Sur la 3080 c'était soit 10 Go avec 10 puces ou 20 go avec 20 puces, ou passer par une configuration asymétrique de la ram, ce qui ne se fait plus depuis longtemps et on aurait eut quoi 14/16 puces ?
.
| mrdoug a écrit : Pour info, avec ma 2070 super et ses 8Go de ram, il est pas rare que je frole les 8go d'utilisation en 1080p. |
Non mais l'allocation RAM et l'utilisation réelle de la vram c'est deux choses différentes. Quand on sature réellement la vram les performances s'effondrent totalement, dans ton cas ce qui se passe c'est juste le jeu qui alloue le plus de VRAM possible, sans pour autant l'utiliser intégralement.
| mrdoug a écrit : Far Cry 5 avec les textures HD ou encore Cyberpunk. Pour Cyberpunk je monte à 7.6 Go, je viens de tester à l'instant. (en ultra sans le RT) |
Dans CyberPunk que tu cites, la RTX 2060 et ses 6 go de VRAM ne s'effondrent pas en 1080p / Ultra, elle est a sa place habituelle.
| arizonadream a écrit : |
Et est ce que le tau d'image par seconde s'effondre sur les cartes de 8 go ?
https://www.pcgameshardware.de/Far- [...] 1380782/2/
Y a que PCGH.de qui met en avant le manque de VRAM avec le pack de texture HD + RT en 4K.
Marsh Posté le 12-10-2021 à 11:40:03
Dites, on est d'accord que la résolution n'a pas forcément de lien avec la quantité de mémoire utilisée pour les textures ou bien je suis dans l'erreur ?
Je vois très bien un jeu low poly tourner en 4K avec une petite poignée de Go utilisés pour les textes
Et inversement un jeu rendu en Full HD peut largement faire péter les 8Go de VRAM (RE Village pour n'en citer qu'un seul)
Après, rajouter de la VRAM sur un GPU, ça laisse la latitude aux développeurs de l'utiliser sans se poser de questions et de chercher ni l'économie, ni l'optimisation. En gros, augmenter la VRAM ça plaide pour la flemme
Marsh Posté le 12-10-2021 à 12:56:58
| havoc_28 a écrit : |
C'est le cas chez Computerbase également.
https://www.computerbase.de/2021-10 [...] mark-test/
Marsh Posté le 12-10-2021 à 16:54:52
| ArthurHoggett a écrit : Dites, on est d'accord que la résolution n'a pas forcément de lien avec la quantité de mémoire utilisée pour les textures ou bien je suis dans l'erreur ? |
Là tu prends l'exemple de deux jeux, pour répondre à ta question il faudrait prendre le même jeu et voir combien de vram il occupe en 1080p et en 2160p.
Là je pense que tu auras une différence, car une texture UHD pèse à priori plus lourd qu'une texture HD, tout comme une photo/vidéo UHD pèse plus lourd qu'une photo/vidéo HD.
Marsh Posté le 13-10-2021 à 01:00:18
Chez Hardware Unboxed, avec les textures HD, leurs mesures montrent que l'utilisation VRAM dépassent pas 10go en 4K Ultra+DXR (sans les ombres RT donc).
Marsh Posté le 13-10-2021 à 02:50:51
| aliss a écrit : |
Moins prononcé que sur PCGH, après j'imagine que ça doit dépendre de la scène utilisé pour le test ^^. A voir si le problème persiste ou si ça sera réglé via MAJ pilote / jeu.
Marsh Posté le 13-10-2021 à 06:34:15
| arizonadream a écrit : Salut, |
euihhh et sinon ? c'est quoi la question ? l'interet du topic ?
juste un jeu pour se mesurer le kiki ? un AMD VS NV ? (encore dirais-je)
Marsh Posté le 13-10-2021 à 08:11:26
| havoc_28 a écrit : Moins prononcé que sur PCGH, après j'imagine que ça doit dépendre de la scène utilisé pour le test ^^. A voir si le problème persiste ou si ça sera réglé via MAJ pilote / jeu. |
En fait c'est tout aussi prononcé chez eux car ils ont désactivé le pack HD pour les cartes ne pouvant le gérer convenablement.
The HD textures are deliberately desactivated for the benchmarks, since graphics cards with too little VRAM not only run a little slower, but also collapse completely. If HD textures are not possible on the hardware, this is indicated accordingly in the diagrams.
For Ultra HD it has to be more than 10 GB - a GeForce RTX 3080 10 GB jerks unplayably. 12 GB are enough.
Marsh Posté le 13-10-2021 à 08:33:41
| Z_cool a écrit : |
Mais tellement arrêtez voir de continuer sur ce débat a chaque fois....
Marsh Posté le 13-10-2021 à 09:44:15
| artouillassse a écrit : |
C'est ça, on est d'accord, donc un jeu rendu en 1080p, 1440p ou 2160p consomme plus ou moins de VRAM
Mais la quantité de VRAM consommé dépend aussi de la résolution des textures (cas qui pose problème dans FC6).
Donc dire que telle ou telle carte est meilleure qu'une autre en 4K, c'est pas pertinent sachant que ça dépend vraiment du contenu du jeu, et non pas de sa résolution de rendu.
Marsh Posté le 13-10-2021 à 09:49:11
Ben ça dépend comment le jeu est codé c'est sûr, et tous ne sont pas au même niveau, il n'y a qu'à voir l'écart de perf à haut niveau sur CP2077 et un autre jeu mieux optimisé.
Par contre on peut tout à fait mesurer les perf en 4K entre deux cartes, il suffit de prendre le même jeu et d'appliquer strictement les mêmes réglages (hors réglages maison comme le RT et l'équivalent AMD).
Après il y a les jeux optimisés pour AMD et ceux pour Nvidia, mais il suffit de comparer avec des jeux qui ne sont pas spécialiement dév pour l'une ou l'autre carte.
Marsh Posté le 13-10-2021 à 10:24:50
| artouillassse a écrit : Ben ça dépend comment le jeu est codé c'est sûr, et tous ne sont pas au même niveau, il n'y a qu'à voir l'écart de perf à haut niveau sur CP2077 et un autre jeu mieux optimisé. Par contre on peut tout à fait mesurer les perf en 4K entre deux cartes, il suffit de prendre le même jeu et d'appliquer strictement les mêmes réglages (hors réglages maison comme le RT et l'équivalent AMD). |
FC6 utilise l'API de Microsoft (DXR), soit le standard en Ray Tracing ainsi que le FSR qui est agnostique.
Si on ajoute le fait que les 2 fabricants sont partenaires du jeu, je ne pense pas que l'un ou l'autre soit réellement avantagé.
La question que l'on peut se poser, c'est de savoir si une telle utilisation de vram est justifiée avec ce pack HD et là il peut y avoir débat.
Comme le dit havoc_28, il n'est pas exclu qu'un un patch correctif ou/et de nouveaux pilotes ne changent la donne.
Quoi qu'il en soit, c'est un cas isolé et vouloir en tirer un conclusion hâtive sur la quantité de vram embarquée par tel ou tel gpu n'a pas de sens.
Marsh Posté le 13-10-2021 à 10:35:58
| aliss a écrit : FC6 utilise l'API de Microsoft (DXR), soit le standard en Ray Tracing ainsi que le FSR qui est agnostique. |
Hors sujet
Je parlais de manière générale et pas uniquement de FC6 même si le sujet est axé sur ce jeu en particulier, c'était en réponse au commentaire d'arthur hogget.
Et du coup je rejoins totalement ta conclusion, on ne se base pas sur un jeu pour faire une généralité d'une situation.
Marsh Posté le 13-10-2021 à 10:57:30
| aliss a écrit : |
J'avais pas ce détail. Ca promet
Bon, après c'est pas comme si Ubisoft était maître étalon en terme d'implémentation et optimisation de nouvelles fonctionnalités
En tout cas, merci, t'as bien résumé la situation (et débunké le post original outrancier
)
Marsh Posté le 13-10-2021 à 11:06:29
Moi ce qui m'a fait marrer c'est arizonadream qui dit
| arizonadream a écrit : Ps: Je me réfère à des cas pratiques ou à des retours de joueurs plus qu'à des articles. |
Alors que c'est lui à l'origine du topic et du lien de l'article ![]()
Marsh Posté le 09-10-2021 à 18:06:32
Salut,
Donc à priori les cartes Nvidia jusqu'à la 3080 inclue ne sont pas capables de charger un pack de texture HD sur Far Cry 6
https://wccftech.com/far-cry-6-pc-r [...] -properly/
Qui plus est, la 3070 soit disant supérieure en Ray Tracing à la 6700XT se fait anéantir lorsque l'option est activée en 4K et devinez qui vient la sauver ? le FSR
Quelle enculade de la part de Nvidia de proposer des GPU haut de gamme (vu les tarifs exorbitants) avec seulement 8 GB de Vram en 2021. Même pas 1 an et la 3070 est déjà obsolète au premier AAA qui sort. Une honte il n'y a pas d'autres mots.
https://youtu.be/CZxzbAKUk0w&t=5m58s
Message édité par arizonadream le 09-10-2021 à 18:08:33