configuration du pannel nvidia

configuration du pannel nvidia - Carte graphique - Hardware

Marsh Posté le 20-09-2021 à 21:04:51    

Bonjour tout le monde, voici ma config : INTEL I7 8700K GIGABYTE AORUS Z370 GAMING 7 32Go 2666MHZ ASUS ROG STRIX RTX 3090OC et enfin le moniteur ASUS PG259QNR.
Première question, pensez-vous qu'avec une carte Z370 donc PCI-E 3.0 je perds des indices de performances sous 3DMARK par rapport à une Z590 qui elle est PCI-E 4.0?
Ensuite, par rapport à ma config, quelqu'un aurait-il l'amabilité de me proposer un réglage optimal de mon panneau de configuration NVIDIA pour 3DMARK notamment.
Puis pensez-vous que le mode "HDR" réduise les performances?
Je sais que j'ai un processeur (INTEL I7 8700K) qui bride ma config, cependant j'ai quand même activé le Rezisable Bar sur une carte mère qui utilise un chipset de 2017.
Voili voilou, merci à ceux et celles qui se seront interréssé(e)s à ce topic, j'espère que quelqu'un de compétent saura me répondre.
Si j'ai d'autres questions, c'est ici que je reviendrais. Merci :D

Reply

Marsh Posté le 20-09-2021 à 21:04:51   

Reply

Marsh Posté le 20-09-2021 à 21:10:19    

Salut. J'ai un écran ASUS GSYNC 165Hz et je ne touche rien au control panel. ça marche très bien comme ça.

 

Pour le PCIE3/4, je ne sais pas. Il me semble pas que tu sois impacté. Regarde dans google, l'expérience a été faite mais je ne me souviens du résultat exact mais de mémoire, c'est anecdotique. Le PCIE 4 sert à plein d'autre chose que la carte graphique. (NVME etc...).

 

Je crois que HDR impacte de manière infime les perfs, c''est ce qu'il m'avait semblé à l'époque ou je testait un peu. Mais c'est clairement négligeable.

 

Message cité 1 fois
Message édité par jujuf1 le 20-09-2021 à 21:13:52

---------------
Du coup du coup …
Reply

Marsh Posté le 20-09-2021 à 21:13:20    

@thunder66 : balance un 3dmark timespy sans rien touché pour voir ce que ca donne ;)
à part la vérification du gsync , je touche pas grand chose dans le panneau de conf Nvidia (sauf sur certains profils de jeux) mais au niveau des paramètres globaux , à part la résolution , la fréquence d'affichage et le gsync (qui de toute façon s'active tout seul avec mon écran) , je ne fais pas bcp de manip :jap:

Message cité 1 fois
Message édité par cyberfred le 20-09-2021 à 21:19:04
Reply

Marsh Posté le 20-09-2021 à 22:31:05    

jujuf1 a écrit :

Salut. J'ai un écran ASUS GSYNC 165Hz et je ne touche rien au control panel. ça marche très bien comme ça.  
 
Pour le PCIE3/4, je ne sais pas. Il me semble pas que tu sois impacté. Regarde dans google, l'expérience a été faite mais je ne me souviens du résultat exact mais de mémoire, c'est anecdotique. Le PCIE 4 sert à plein d'autre chose que la carte graphique. (NVME etc...).  
 
Je crois que HDR impacte de manière infime les perfs, c''est ce qu'il m'avait semblé à l'époque ou je testait un peu. Mais c'est clairement négligeable.  
 
 


 
Salut JUJUF1 et merci d'avoir répondu jujuf1. As-tu activé ou désactivé le G-SYNC? 3DMARK recommande de le désactiver.
J'attends le INTEL 12900K et le chipset Z690 qui évoluera du PCI-E 3.0 au PCI-E 5.0 là ça devrait changer je pense, 10 à 15% de performances en plus selon ce que j'ai lu sur le net.

Reply

Marsh Posté le 21-09-2021 à 00:04:13    

Je ne sais pas je vais jamais dedans. Si tu laisses par défaut c’est très bien.


---------------
Du coup du coup …
Reply

Marsh Posté le 21-09-2021 à 07:32:11    

Laisse gsync activé pour jouer,
 
Ms il faut le desactiver pr bench 3dmark, sinon ca limite les fps et fausse le resultats


---------------
Infographiste 3D & Post-Production - Freelance
Reply

Marsh Posté le 21-09-2021 à 13:08:59    

cyberfred a écrit :

@thunder66 : balance un 3dmark timespy sans rien touché pour voir ce que ca donne ;)
à part la vérification du gsync , je touche pas grand chose dans le panneau de conf Nvidia (sauf sur certains profils de jeux) mais au niveau des paramètres globaux , à part la résolution , la fréquence d'affichage et le gsync (qui de toute façon s'active tout seul avec mon écran) , je ne fais pas bcp de manip :jap:


 
Salut cyberfred et merci de donner ton avis. Alors TIME SPY avec Afterburner, configuration du G-SYNC activé le reste par défaut :  
 
GRAPHICS SCORE  : 19706
TIME SPY SCORE   : 15659
COMBINED SCORE : 7327


Message édité par thunder66 le 21-09-2021 à 14:06:11
Reply

Marsh Posté le 21-09-2021 à 13:23:24    

oki ,  tu n'aurais pas inversé le score global (19706) et le Graphic Score  (15659) dans ton résultat au dessus ? car le GS dans ce cas est vraiment trop bas pour une 3090 et ton 19706 me semble plus proche de la réalité ;)
sinon, effectivement , comme dit Kabyll , relance sans gsync activé , car le gsync peut en effet te fausser le résultat final.
pour info , sur ma 3090 FE , sans Gsync , le Graphic score Timepsy :  19750@stock et 20.600@oc (mais pas énorme non plus , j'ai mis +80/+800 dans MSI AB)

Message cité 1 fois
Message édité par cyberfred le 21-09-2021 à 13:30:18
Reply

Marsh Posté le 21-09-2021 à 13:47:27    

kabyll a écrit :

Laisse gsync activé pour jouer,
 
Ms il faut le desactiver pr bench 3dmark, sinon ca limite les fps et fausse le resultats


 
Salut kabyll, j'ai rempli 5 feuilles d'imprimante en testant à peu près tous les réglages possibles du panneau de configuration NVIDIA pour faire tourner 3DMARK.
En ayant désactivé le G-SYNC dans le panneau de configuration NVIDIA (configuration du G-SYNC) et en n'ayant rien modifié dans gérer les paramètres 3D, paramètres de programme 3DMARK),  
j'obtiens : Graphics Score : 19705
               Time Spy Score : 15678
               CPU Score         : 7265
en ayant désactivé le HDR et en utilisant Afterburner pour bencher ma config (non OC)


Message édité par thunder66 le 21-09-2021 à 14:52:00
Reply

Marsh Posté le 21-09-2021 à 13:58:48    

@thunder66 : impec , les score sur ton message précédent étaient donc bien inversés , ouf , tu es parfaitement dans la norme donc , pas de souci.
tu peux essayer de désactiver Gsync et relancer pour voir  mais sur timespy , il n'y a pas une grosse différence chez moi gsync activé/désactivé

Reply

Marsh Posté le 21-09-2021 à 13:58:48   

Reply

Marsh Posté le 21-09-2021 à 14:59:44    

cyberfred a écrit :

@thunder66 : impec , les score sur ton message précédent étaient donc bien inversés , ouf , tu es parfaitement dans la norme donc , pas de souci.
tu peux essayer de désactiver Gsync et relancer pour voir  mais sur timespy , il n'y a pas une grosse différence chez moi gsync activé/désactivé


 
@chez moi non plus cyberfred ;-)

Reply

Marsh Posté le 21-09-2021 à 17:49:04    

cyberfred a écrit :

oki ,  tu n'aurais pas inversé le score global (19706) et le Graphic Score  (15659) dans ton résultat au dessus ? car le GS dans ce cas est vraiment trop bas pour une 3090 et ton 19706 me semble plus proche de la réalité ;)
sinon, effectivement , comme dit Kabyll , relance sans gsync activé , car le gsync peut en effet te fausser le résultat final.
pour info , sur ma 3090 FE , sans Gsync , le Graphic score Timepsy :  19750@stock et 20.600@oc (mais pas énorme non plus , j'ai mis +80/+800 dans MSI AB)


 
tu saurais me conseiller pour overclocker mon GPU?
Le processeur n'intervient pas sur les graphics score ou sur le Time Spy score?

Message cité 1 fois
Message édité par thunder66 le 21-09-2021 à 17:50:56
Reply

Marsh Posté le 21-09-2021 à 17:56:22    

Déja il y a trois problèmes sur ma config :  
Un le processeur qui date de 2017 (I7 8700K)
Deux : l'ancieneté du chipset de la carte mère (Z370) 2017 aussi malgré la mise à jour du BIOS pour le Rezisable Bar (oui il est disponible sur les chipsets Z370)
Trois : j'ai une carte mère GIGABYTE AORUS et une carte graphique ASUS

Message cité 1 fois
Message édité par thunder66 le 21-09-2021 à 19:24:18
Reply

Marsh Posté le 21-09-2021 à 18:07:58    

thunder66 a écrit :

Déja il y a trois problèmes sur ma config :  
Un le processeur qui date de 2017 (I7 8700K)
Deux : l'ancieneté du chipset de la carte mère (Z370) 2017 aussi
Trois : j'ai une carte mère GIGABYTE AORUS et une carte graphique ASUS


Désolé mais ce sont 3 faux problèmes.
Déjà la marque de la CM et de la carte graphique n'ont aucune incidence.... sur rien.
Ensuitre le CPU a beau être de 2017 il est largement capable de tenir une 3090.
Pour finir le chipset est lui aussi encore dans la course.
 
Bref, comme jujuf1 te l'a dit en première réponse  
"Pour le PCIE3/4, je ne sais pas. Il me semble pas que tu sois impacté. Regarde dans google, l'expérience a été faite mais je ne me souviens du résultat exact mais de mémoire, c'est anecdotique. Le PCIE 4 sert à plein d'autre chose que la carte graphique. (NVME etc...)."
Et tes scores en bench tendent à confirmer que ta carte et ton CPU peuvent s'exprimer pleinement.
 
Après ça si tu es encore dans l'idée de vouloir changer de config, ben change de config.
 [:cosmoschtroumpf]  
 
Edit :  

thunder66 a écrit :

J'attends le INTEL 12900K et le chipset Z690 qui évoluera du PCI-E 3.0 au PCI-E 5.0 là ça devrait changer je pense, 10 à 15% de performances en plus selon ce que j'ai lu sur le net.


On aura peut-être un peu plus de perf mais c'est du théorique, et actuellement le PCI-E 4.0 n'est pas encore saturé, du coup c'est une fausse amélioration en fait, car les composants qui sortiront à ce moment là n'existent pas encore, et ne seront sans doute pas plus bridés par le PCI-E 4.0 (boule de crystal pour ce dernier com).

Message cité 1 fois
Message édité par artouillassse le 21-09-2021 à 18:12:31

---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 18:26:20    

artouillassse a écrit :


Désolé mais ce sont 3 faux problèmes.
Déjà la marque de la CM et de la carte graphique n'ont aucune incidence.... sur rien.
Ensuitre le CPU a beau être de 2017 il est largement capable de tenir une 3090.
Pour finir le chipset est lui aussi encore dans la course.
 
Bref, comme jujuf1 te l'a dit en première réponse  
"Pour le PCIE3/4, je ne sais pas. Il me semble pas que tu sois impacté. Regarde dans google, l'expérience a été faite mais je ne me souviens du résultat exact mais de mémoire, c'est anecdotique. Le PCIE 4 sert à plein d'autre chose que la carte graphique. (NVME etc...)."
Et tes scores en bench tendent à confirmer que ta carte et ton CPU peuvent s'exprimer pleinement.
 
Après ça si tu es encore dans l'idée de vouloir changer de config, ben change de config.
 [:cosmoschtroumpf]  
 
Edit :  


 

artouillassse a écrit :


On aura peut-être un peu plus de perf mais c'est du théorique, et actuellement le PCI-E 4.0 n'est pas encore saturé, du coup c'est une fausse amélioration en fait, car les composants qui sortiront à ce moment là n'existent pas encore, et ne seront sans doute pas plus bridés par le PCI-E 4.0 (boule de crystal pour ce dernier com).


 
Ce que tu ne sais pas c'est que je vais évoluer vers de la UHD 4K tu comprends pourquoi je veux changer de config?

Reply

Marsh Posté le 21-09-2021 à 18:30:35    

thunder66 a écrit :

Ce que tu ne sais pas c'est que je vais évoluer vers de la UHD 4K tu comprends pourquoi je veux changer de config?


Je me doute que faire tourner une 3090 sur du FHD ça doit faire mal les 1500 boules (pour les FE).
 
Mais ça ne change strictement rien, bien au contraire.
Si ton CPU est déjà capable d'envoyer disons 144fps, il le sera tout autant en 4K qu'en n'importe quelle autre définition.
C'est la 3090 qui compte avant tout pour tourner en 144 fps sur du 4K, même pas sûr qu'elle y arrive sur tous les jeux, soit dit en passant.
 
Bref, à mon avis tu te prends la tête pour rien.
Essaie de bencher ton 8700K pour voir s'il tient le 144fps sur la plupart des jeux, et compare les FPS obtenus avec ceux d'un CPU plus récent typer i9 11900K par exemple. Pas sûr que la différence soit intéressante au point de remplacer une plateforme haut de gamme d'il y a 4 ans.  
Aujourd'hui les CPU évoluent beaucoup moins qu'à l'époque, ce qui n'est pas encore le cas des GPU qui continuent d'évoluer pas mal compte tenu de l'augmentation de la définition des écrans et des fréquences de rafraichissement élevées.


---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 18:47:02    

artouillassse a écrit :


Je me doute que faire tourner une 3090 sur du FHD ça doit faire mal les 1500 boules (pour les FE).
 
Mais ça ne change strictement rien, bien au contraire.
Si ton CPU est déjà capable d'envoyer disons 144fps, il le sera tout autant en 4K qu'en n'importe quelle autre définition.
C'est la 3090 qui compte avant tout pour tourner en 144 fps sur du 4K, même pas sûr qu'elle y arrive sur tous les jeux, soit dit en passant.
 
Bref, à mon avis tu te prends la tête pour rien.
Essaie de bencher ton 8700K pour voir s'il tient le 144fps sur la plupart des jeux, et compare les FPS obtenus avec ceux d'un CPU plus récent typer i9 11900K par exemple. Pas sûr que la différence soit intéressante au point de remplacer une plateforme haut de gamme d'il y a 4 ans.  
Aujourd'hui les CPU évoluent beaucoup moins qu'à l'époque, ce qui n'est pas encore le cas des GPU qui continuent d'évoluer pas mal compte tenu de l'augmentation de la définition des écrans et des fréquences de rafraichissement élevées.


 
En fait j'ai l'impression que ma carte souffre d'un problème de fabrication : 3DMARK Time Spy Extreme : Graphics score (10353) Time Spy Extreme score (7744) CPU Score (3190) c'est ça une carte à 2750 boules chez NVIDIA  :??:

Reply

Marsh Posté le 21-09-2021 à 18:48:10    

thunder66 a écrit :


 
tu saurais me conseiller pour overclocker mon GPU?
Le processeur n'intervient pas sur les graphics score ou sur le Time Spy score?


 
en effet , le cpu ne va pas intervenir sur le GS ,  ou alors très très peu et à moins d'avoir une vieille config , ton graphic score Timespy ne va pas bcp évoluer d'une config à l'autre avec la même carte graphique  
en revanche sur le score global oui , puisque là le CPU intervient au niveau du calcul final  
 
pour l'overclock , tu as pas mal de tuto dispo , mais avant de parler OC sur une 3090 , je pense que bcp vont te dire de tenter l'UV (undervolt) pour réduire la chauffe en charge évidemment , va faire un tour sur le topic des RTX3000 , je pense que tu trouveras ton bonheur :jap:
sinon pour l'overclock classique , MSI AB et il faut jouer sur les fréquences du core et de la mémoire mais à monter par palier puis tester avec benchs/jeux pendant un moment pour être sûr de la stabilité , sachant que tu peux bien entendu aussi t'amuser à cumuler UV plus Overclock en même temps ;)

Message cité 1 fois
Message édité par cyberfred le 21-09-2021 à 18:48:47
Reply

Marsh Posté le 21-09-2021 à 18:55:09    

thunder66 a écrit :

En fait j'ai l'impression que ma carte souffre d'un problème de fabrication : 3DMARK Time Spy Extreme : Graphics score (10353) Time Spy Extreme score (7744) CPU Score (3190) c'est ça une carte à 2750 boules chez NVIDIA  :??:


Ah c'est autre chose en effet.
La moyenne des 100 premiers résultats du TSE:GS est autour de 12000, par contre aucune idée du réglage utilisé pour atteindre ces scores, ils sont peut-être OC à mort leurs 3090, c'est en général ce que font les bencheurs fous.
Faudrait voir une 3090 @stock du forum pour comparer les résultats.

 

Pour confirmer ce que vient de dire cyberfred plus haut, si tu regardes le 65ème de mon lien concernant les résultats TSE:GS le mec a un 6700K, deux générations en dessous de ton 8700K, et il a un score plus élevé que le tiens.
Mais le score c'est une chose, faudrait surtout voir les résultats ingame pour avoir une bonne idée des perfs de ta 3090.

 

Ne te compare pas @stock avec des mecs qui veulent faire kikitoudur en benchmark, car ça n'a que cette valeur : un bench.

Message cité 1 fois
Message édité par artouillassse le 21-09-2021 à 18:57:51

---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 18:55:18    

cyberfred a écrit :


 
en effet , le cpu ne va pas intervenir sur le GS ,  ou alors très très peu et à moins d'avoir une vieille config , ton graphic score Timespy ne va pas bcp évoluer d'une config à l'autre avec la même carte graphique  
en revanche sur le score global oui , puisque là le CPU intervient au niveau du calcul final  
 
pour l'overclock , tu as pas mal de tuto dispo , mais avant de parler OC sur une 3090 , je pense que bcp vont te dire de tenter l'UV (undervolt) pour réduire la chauffe en charge évidemment , va faire un tour sur le topic des RTX3000 , je pense que tu trouveras ton bonheur :jap:
sinon pour l'overclock classique , MSI AB et il faut jouer sur les fréquences du core et de la mémoire mais à monter par palier puis tester avec benchs/jeux pendant un moment pour être sûr de la stabilité , sachant que tu peux bien entendu aussi t'amuser à cumuler UV plus Overclock en même temps ;)


 
Merci cyberfred je vais aller voir ça de suite mais je ne cache à personne que je suis déçu des performances de la 3090oc du moins pour l'instant avec ma config de 2017 et mon moniteur 1920x1080
Pour rappel sur la boîte du GPU il est marqué : DirectX_12_Ultimate

Reply

Marsh Posté le 21-09-2021 à 18:56:59    

artouillassse a écrit :


Ah c'est autre chose en effet.
La moyenne des 100 premiers résultats du TSE:GS est autour de 12000, par contre aucune idée du réglage utilisé pour atteindre ces scores, ils sont peut-être OC à mort leurs 3090, c'est en général ce que font les bencheurs fous.
Faudrait voir une 3090 @stock du forum pour comparer les résultats.


 
non mais je ne veux pas overclocker, d'après ce que l'on ma dit, cela réduit l'esperance de vie d'un CPU ou d'un GPU.

Reply

Marsh Posté le 21-09-2021 à 18:57:21    

thunder66 a écrit :


 
Merci cyberfred je vais aller voir ça de suite mais je ne cache à personne que je suis déçu des performances de la 3090oc du moins pour l'instant avec ma config de 2017 et mon moniteur 1920x1080
Pour rappel sur la boîte du GPU il est marqué : DirectX_12_Ultimate


 
c'est étonnant , tes GS@stock dans Timespy et Timespy extreme sont plutôt bons pourtant , tu as des soucis sur les jeux en fait ?
 
comme dit Artouillasse , les scores postés au dessus sont fait sur des machines bien overclockées en général , le score moyen sur TS Extreme au niveau du GS est dans les 9900-10000 si je me trompe pas donc tu es largement dans la norme avec la tienne @stock.

Message cité 1 fois
Message édité par cyberfred le 21-09-2021 à 19:01:46
Reply

Marsh Posté le 21-09-2021 à 19:06:06    

thunder66 a écrit :

Merci cyberfred je vais aller voir ça de suite mais je ne cache à personne que je suis déçu des performances de la 3090oc du moins pour l'instant avec ma config de 2017 et mon moniteur 1920x1080
Pour rappel sur la boîte du GPU il est marqué : DirectX_12_Ultimate


Tu risques d'être déçu de ne pas avoir beaucoup plus de performances avec une config récente, que tu auras payée un bras.
Un 8700K c'est du 6c/12t encore bien vaillant, à mon avis on en a pour un moment avant qu'il soit obsolète ingame pour du 144hz.
Change d'écran pour un 4K@144hz et tu pourras enfin profiter de ta 3090, parce que là sur du FHD c'est clairement du gachis et tu n'en profites pas.
Les benchmark c'est bien joli mais au bout du compte c'est le kiff dans les jeux qui doit passer avant le résultat d'un bench purement synthétique.

Message cité 1 fois
Message édité par artouillassse le 21-09-2021 à 19:06:26

---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 19:07:09    

cyberfred a écrit :


 
c'est étonnant , ton GS@stock dans Timespy est plutôt bon pourtant , tu as des soucis sur les jeux en fait ?


 
non aucun je fais tourner Forza en 1920 x 1080 en Ultra  
                                     Killer Instinct (portage console donc bridé à 60FPS)
                                     Dragon Ball FighterZ
                                     Doom Eternal
Tous mes jeux tournent parfaitement, c'est fluide et rapide mais quand j'avais une GIGABYTE AORUS 1080TI Extreme Edition je trouve que n'étaient pas proportionnels à l'avantage du 1080TI.
J'éspère que le GPU enverra assez de FPS pour ma gueule quand j'aurai le moniteur UHD 4K.

Reply

Marsh Posté le 21-09-2021 à 19:10:10    

artouillassse a écrit :


Tu risques d'être déçu de ne pas avoir beaucoup plus de performances avec une config récente, que tu auras payée un bras.
Un 8700K c'est du 6c/12t encore bien vaillant, à mon avis on en a pour un moment avant qu'il soit obsolète ingame pour du 144hz.
Change d'écran pour un 4K@144hz et tu pourras enfin profiter de ta 3090, parce que là sur du FHD c'est clairement du gachis et tu n'en profites pas.
Les benchmark c'est bien joli mais au bout du compte c'est le kiff dans les jeux qui doit passer avant le résultat d'un bench purement synthétique.


 
ok j'attends Novembre pour le moniteur UHD 4K merci pour ton savoir je suis rassuré au 3/4, il ne me reste plus qu'à voir ce que mon GPU a dans les tripes en UHD 4K G-SYNC HDR ... :hello:  
Merci à vous. On en reparle dès que j'ai le PG32UQX

Message cité 1 fois
Message édité par thunder66 le 21-09-2021 à 19:11:55
Reply

Marsh Posté le 21-09-2021 à 19:15:44    

thunder66 a écrit :

ok j'attends Novembre pour le moniteur UHD 4K merci pour ton savoir je suis rassuré au 3/4, il ne me reste plus qu'à voir ce que mon GPU a dans les tripes en UHD 4K G-SYNC HDR ... :hello:  
Merci à vous. On en reparle dès que j'ai le PG32UQX


Oh tu peux remercier le forum, c'est là où j'ai tout appris.
 
Avec un VRAI écran tu vas vraiment profiter de ta 3090 et je peux t'assurer que tu ne seras pas déçu de ses performances.


---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 19:23:52    

bien joué artouille,
prtant tout ca lui avait deja été dit en long et en large,
 
https://forum.hardware.fr/hfr/Hardw [...] 5934_1.htm
 
ms on dirait que tu as trouvé les mots ;)


---------------
Infographiste 3D & Post-Production - Freelance
Reply

Marsh Posté le 21-09-2021 à 19:25:53    

Il fallait qu'un énième trouduku vienne lui dire la même chose, la goutte qui met le feu au poudre et l'étincelle qui fait déborder l'vase en somme.


---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 19:33:53    

artouillassse a écrit :


Oh tu peux remercier le forum, c'est là où j'ai tout appris.
 
Avec un VRAI écran tu vas vraiment profiter de ta 3090 et je peux t'assurer que tu ne seras pas déçu de ses performances.


 
merci aux passionné(e)s merci à la communauté GEEKS moi personnellement j'étais passionné de cstrike entre 1999 et 2006, j'ai  
~ 25 000 heures de jeu  
Si je ne joue pas à CS GO c'est 1èrement parce que je ne l'aime pas puis ensuite parce que j'ai pas un 3090oc pour jouer en 1024x768 c'est terminé j'ai fait mes preuves
dans tous les cybercafés de Perpignan et je me suis prouvé à moi même que je pouvais jouer et raisonner comme un professionnel.  
Terminé on rentre au bercail ;-)  

Reply

Marsh Posté le 21-09-2021 à 19:35:56    

je reviendrais ici dans quelques semaines pour vous parler de mon nouveau moniteur HF

Reply

Marsh Posté le 21-09-2021 à 19:37:28    

Clairement celui qui a besoin d'une 3090 pour faire des frags sur CS:Go c'est qu'il a pas bien compris le concept.
Les joueurs compet il me semble qu'ils mettent tout au mini t'façon alors avoir une carte capable d'envoyer de l'ultra ça ne les intéresse pas au final.


---------------
Rien pour le moment
Reply

Marsh Posté le 21-09-2021 à 19:41:26    

+1 avec Artouillasse et Kabyll tout est dit ;)
 

thunder66 a écrit :


 
Tous mes jeux tournent parfaitement, c'est fluide et rapide mais quand j'avais une GIGABYTE AORUS 1080TI Extreme Edition je trouve que n'étaient pas proportionnels à l'avantage du 1080TI.
J'éspère que le GPU enverra assez de FPS pour ma gueule quand j'aurai le moniteur UHD 4K.


 
c'est justement là où tu verras la grosse différence avec une 1080 Ti ;) parce que comme dit au dessus , une 3090 en 1080p c'est dommage de l'utiliser sur ce genre de resolution :spamafote:
(enfin déjà à partir du 1440p ou un écran WQHD on voit déjà une belle différence)

Message cité 1 fois
Message édité par cyberfred le 21-09-2021 à 19:44:21
Reply

Marsh Posté le 22-09-2021 à 07:37:00    

cyberfred a écrit :

+1 avec Artouillasse et Kabyll tout est dit ;)
 


 

cyberfred a écrit :


 
c'est justement là où tu verras la grosse différence avec une 1080 Ti ;) parce que comme dit au dessus , une 3090 en 1080p c'est dommage de l'utiliser sur ce genre de resolution :spamafote:
(enfin déjà à partir du 1440p ou un écran WQHD on voit déjà une belle différence)


 
En plus normalement ce GPU est capable de faire tourner des jeux en 8K 60FPS si je ne m'abuse.
Imaginez de la 8K à 360Hz, ça ça sera pour dans 5 ans je dirais on en reparlera, l'informatique ça évolue de manière disproportionnée toujours plus vite et malheureusement toujours plus cher :'-(


Message édité par thunder66 le 22-09-2021 à 07:39:43
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed