doute sur ecran pour jouer - Ecran - Hardware - Périphériques
Marsh Posté le 17-12-2015 à 17:37:12
Vu que c'est une TV, il faut que tu ailles dans les options activer le mode jeu.
Sans ça, la TV essaie d'ajouter artificiellement des trames pour fluidifier l'affichage, ce qui forcément augmente énormément l'input lag.
Marsh Posté le 17-12-2015 à 18:17:15
Aucune carte ne permet de jouer en 4k sans baisser les détails, même avec un sli de 980ti tu ne pourra pas mettre les options à fond.
+1 pour le réglage jeux sur ta télé.
Marsh Posté le 18-12-2015 à 01:53:06
ouaip faut retirer les option pour "embellir" l'image, sinon c'est injouable (grosse latence generalement), voir activer le mode jeux de la TV
et faudra aussi baisser les reglage graphique du jeux, car ta carte graphique est trop faible pour s'occuper correctement d'une resolution 4K
Marsh Posté le 18-12-2015 à 09:28:52
J'ai envie de hurler ^^
Je me suis donc fait un peu avoir par le vendeur... Je n'ai pas d'option pour mettre l'ecran en mode jeux à part l'image c'est à dire qu'il me change juste la teinte et la luminosité....
Normalement je peux encore rendre l'ecran d'ici dimanche, je suis vraiment tenté de le faire surtout vu le prix que je l'ai payé et surtout car je comptais jouer principalement sur cet écran. J'ai entendu dire que les écrans Sony était les meilleurs pour le jeux vidéo surtout au niveau de l'input lag vous Confirmez? Et est ce que ça vaut le coup de changer au final?
Autre questions, je joue à certain jeux comme witcher ou Crysis par exemple avec une manette xbox360, est ce que ça peut avoir une conséquence sur les mouvement brusques des personnages ou de la ligne de visé? Faudrais que je trouve un logiciel pour voir le fps en tant réel durant le jeux et baisser les options ennplein jeu pour voir si c'est plus jouable.
Pour la carte graphique oui je sais que c'est ce qui pêche pour l'instant mais je voulais etre sûr que si je change de carte je verrais une différence sur cet écran ou si elle va me la «brider» en quelques sorte.
Merci pour vos réponses!
Marsh Posté le 18-12-2015 à 16:36:45
bah en mode jeux normalement ca modifie aussi la frequence de l'ecran
au pire tu va dans le menu/reglage de l'ecran, tu cherche l'option de traitement de fluidité de l'ecran (apparemment il s'appel "Smooth Motion Rate" et tu le desactive
ce sera pareil avec tous les ecrans de TV actuel, dés qu'ils ont des traitement de fluidité (sur mon ancien ecran sony KDL32EX720 je devait le desactiver aussi, motionflow, sinon j'avais une latence de fou entre l'appuis sur la touche et l'action effectué)
le fais de jouer avec une manette de Xbox n'a rien à voir
quand au remplacement de carte graphique, bien sur que ca t'aidera, l'ecran ne va pas la "brider", une plus puissante aura moins de mal
mais c'est sur qu'une resolution 4K est plus gourmande niveau GPU qu'une resolution full HD (4x plus de pixel à gerer)
pour le logiciel affichant les FPS ingame, tu en à plusieur
Fraps, tous simple, qui affichera dans le coin que tu veux les FPS affiché
tu à aussi Action, de mirrilis, qui permet aussi de faire des capture d'ecran et des video ingame plus efficacement que fraps (moins gourmand en ressource)
sinon pour avoir encore plus d'info, genre temperature CPU, G PU, pourcentage d'utilisation, frequence etc... en plus des FPS, tu peut utiliser MSI afterburnner associé à RivaTunner (ce dernier doit etre mis en route en premier)
mais avec une GTX670, tu verra que les fps seront tres faible, c'est surement ca qui dechirre ton image, faudra mettre toutes les option graphique au minimum, elle est trop faible pour jouer correctement sur un ecran 4K
et changer d'ecran pour un autre en 4K ne changera rien, le vendeur n'y est pour rien, il ne pouvait pas savoir que ta config PC etais faible
car on peut tres bien jouer sur un ecran 4K, sans probleme, sauf que ca necessite une config forcement bien plus performante que sur un ecran full HD
Marsh Posté le 18-12-2015 à 17:33:40
Merci pour ta réponse Chtit,
Je n'en veux pas au vendeur, il a été assez franc avec moi sur certain details donc bon ... Pour l'option je regarderai mieux alors car je n'ai jamais vu cette option et ca me fait un petit peur d'ailleurs, car si on la trouve sur toutes les télé récentes c'est que j'aurai pas du prendre cette nouvelle marque chinoise, la c'est le vendeur qui me la conseillé en me disant que c'etait le nouveau gros concurrent a LG, Samsung et Sony....
Merci pour les logiciels de fps, je connaissais Fraps mais j'aurais bien aimé avoir plus que le fps comme la température ect ... Donc je vais tester ta solution MSI afterburner + RivaTunner.
Merci à tous en tout cas pour vos réponses
Marsh Posté le 18-12-2015 à 18:05:18
Il faut aussi prendre en compte le fait qu'à cause du HDMI 1.4 , tu sois limité en 3840x2160 à une fréquence de rafraîchissement de seulement 30Hz , à moins peut-être d'avoir activé le chroma subsampling 4:2:0 dans les options du panneau de configuration de nVidia ; et utiliser un écran en 30Hz , ce n'est franchement pas très agréable ...
Marsh Posté le 18-12-2015 à 18:16:35
ha oui aussi, j'avais zapper ce HDMI 1.4
la TV à du HDMI 2.0, mais la CG que du 1.4
il te faut donc une carte graphique ayant une sortie HDMI 2.0
Marsh Posté le 18-12-2015 à 19:26:45
Et bien entendu ma CG a un port HDMI 1.4a http://www.materiel.net/carte-grap [...] 78904.html
Ok donc je vais m'acheter une nouvelle petite CG, je vais certainement partir sur une GTX970 Amp!, d'après quelques test que j'ai trouvé par ci par la elle est casi aussi puissante qu'une GTX980 et coute 200euros de moins... Plus tard je pourrais même en acheter une deuxième pour faire un SLI au pire . Vous en pensez quoi d'ailleurs de cette CG si vous vous y connaissez un petit peu ? ou Même si vous pouvez me conseiller ^^
Comme à dit Chtit il y a bien 2 entrées HDMI 2.0 sur la TV.
Concernant le SMR est ce que cela correspond à "Compensation de Mouvement" ? Dans la description il dise : un reglage élevé produira une image plus douce tandis que l'inverse produira une image moins saccadé.
@Roovy, d'apres le panneau de configuration Nvidia sur mon ecran de bureau actuel je suis en 60hz niveau fréquence de rafraichissement donc j'imagine que quand je passe sur ma TV je les garde? il me semble que j'ai deja essayé de toucher a ce paramètre quand je suis dessus et je pouvais sélectionner le 60Hz. Sinon je ne vois rien parlant du Chroma subsampling dans les options.
D'ailleurs je vois un mode Dynamic Super Resolution 1080p, 2715 x 1527 HD (2.00x) je devrais peut-être l'utiliser
Marsh Posté le 18-12-2015 à 19:44:55
En 4k une gtx980 me parait être le minimum quand même, malheureusement
La 970 sera toujours mieux que la 670, mais toujours juste pour du 4k
Marsh Posté le 18-12-2015 à 22:49:13
Sinon, si ta cm le permet, tu peux faire un sli de gtx 670. Ca reviendrai moins cher.
Si je me trompe pas, niveau perf, ca se situe entre la gtx 970 et la gtx 980.
Ca résoud pas le pb de l' HDMI 1.4 par contre
Marsh Posté le 19-12-2015 à 09:26:06
@egones, c'est une tres bonne idée mais comme tu le dis ca résoud pas le problème de l'HDMI 1.4.
J'aurais besoin d'une explication grosso modo du Hertz/FPS svp car la je viens de faire des test de jeux sur la TV et moi qui croyais avoir compris et bien en fait il semblerait que je n'ai rien compris...
J'ai testé Fallout 3, j'ai mis le jeu en 1080p et j'ai 60fps. Dès que je passe le jeu en DSR (Dynamic Super Resolution: 27xx x 1517) le fps tombe direct à 30 alors que je suis toujours à 60Hertz dans ce mode....
Je sais que ma carte supporte le DSR. J'aurai compris si ca avait un rapport avec le HDMI 1.4 mais alors pourquoi en 1080p (natif) j'arrive a atteindre le 60fps ?
Autre petite question, pourquoi je suis limité a 60fps ? je suis sûr que je pourrais le dépasser mais la j'ai vraiment l'impression que c'est bridé quelque part, c'est comme quand je change de résolution, ca tombe direct à 30fps pile...
Enfin bref j'imagine que c'est lié au Hertz et à l'HDMI mais bon je voudrais avoir l'avoir d'expert. Surtout que mon écran a 800Hertz (pqi) donc je pensais qu'en 1080p (natif) je pourrais atteindre les 100fps comme d'autres sur certain jeux...
Merci pour vos réponses.
Marsh Posté le 19-12-2015 à 12:49:09
bah deja tu à 60fps en 1080 et 30fps en 27xx x 1517 car la premiere resolution est plus faible, donc la carte graphique à moins de mal
ensuite tu est limité à 30 et 60fps car dans le jeux tu à activer l'option Vsync (ou synchronisation verticale) afin que les FPS ne depasse pas la rapidité de l'ecran (60Hz et 30Hz) pour ne pas avoir de dechirrement de l'image
tous ca n'a rien à voir avec l'HDMI 1.4, enfin si pour la limite à 30Hz sur la resolution superieur au 1080p
Marsh Posté le 19-12-2015 à 18:33:55
L'oeil humain est absolument incapable de percevoir une différence entre 60 fps ou 100 fps. C'est mieux d'en avoir 60 comme ca tu as de la marge lorsque la CG doit calculer un gros trucs d"un coup (genre une explosion) et que par conséquent les fps baissent momentanément.
Avoir plus de 60 est strictement inutile, ca peut meme poser des soucis avec l'écran qui n'arrive pas a suivre. C'est pour ca que c'est bridé.
Marsh Posté le 19-12-2015 à 18:44:30
Alors d'après certaine personnes ici, si si on sent une gtosse difference, genre en dessous de 60 c'est injouable
Mais je suis d'accord avec toi, 40 c'est fluide déjà
Et effectivement si les fps sont beaucoup plus élevée que ce que peut afficher l'ecran, ça créer des déchirure sur l'image, la vsync bloque à 60fps et limite ce phénomène
Marsh Posté le 20-12-2015 à 07:46:11
ehones a écrit : L'oeil humain est absolument incapable de percevoir une différence entre 60 fps ou 100 fps. C'est mieux d'en avoir 60 comme ca tu as de la marge lorsque la CG doit calculer un gros trucs d"un coup (genre une explosion) et que par conséquent les fps baissent momentanément. |
Il ne faut pas oublier que l'oeil humain s'améliore d'année en année : il y a quelques années l'oeil humain était absolument incapable de voir plus de 24fps, donc ça progresse
Plus sérieusement, je n'ai jamais vu personne qui a réellement testé un écran en 60Hz et 120Hz dire qu'il ne voyait pas de différence. Peut-être que tu es l'exception, mais si tu n'as jamais essayé je te recommande de le faire, même en déplaçant des fenêtres sur le bureau windows la différence est flagrante.
John Carmack avait aussi abordé ce sujet lors de la quakecon 2013 (et probablement aussi depuis qu'il bosse chez Occulus, mais je trouve ses dernièrs talks moins intéressants): https://youtu.be/93GwwNLEBFg?t=5m34s
Marsh Posté le 20-12-2015 à 11:30:36
J'ai testé de retirer la vsync mais c'est vrai que non seulement ca sert a rien mais en plus j'ai l'impression que l'image scintille. Par contre j'ai vu la difference entre le 30 et le 60fps et c'est clair qu'il n'y a pas photo.... C'est casi injouable en 30fps (apres tout depends du jeu surement).
Pour la 4k j'ai compris qu'il me fallait une tres grosse config donc le mieux c'est d'acheter une bonne carte aujourd'hui et sa soeur plus tard pour faire du SLI.
La maintenant mon plus gros problème avec cet écran c'est l'input lag... J'ai changé ma tv pour la version plus petite (40pouces) mais exactement le meme modele. J'hésitais entre Hisense, Samsung et LG mais le truc bien avec Hisense c'est qu'il y a 4port HDMI et l'image est tres belle. J'ai trouvé ce lien Hisense en entrant input lag sur le net : http://hisense.co.uk/press/view/5/ [...] provements Et donc juste en choisissant le mode image "jeux" input lag est reduit de 80%.
En tout cas Merci à tous pour toutes vos réponses !
Marsh Posté le 24-12-2015 à 01:39:49
BlueScreenJunky a écrit : |
En réalité, l'oeil humain voit une image fluide a 18 fps a partir du moment ou tu intercale une image totalement noire entre chaque image. Ca exploite l'effet phi. En gros le cerveau comble l'écart réel entre deux images. Les cinéma exploite aussi le motion blur : pour donner une impression de fluidité avec un framerate bas, il faut des image floues. Appuie sur pause et tu verra une image floue
Au final l'image est fluide mais pas forcément belle quoi.
Bref, a ma connaissance, les pc exploitent aucun de ces phénomènes, tu vois la différence entre 24 et 60 fps du coup.
Marsh Posté le 17-12-2015 à 17:05:49
Bonjour à tous,
je me suis acheté cet écran ce weekend pour prendre plus de plaisir à regarder de bon films mais surtout aussi dans l'optique de connecter mon PC dessus et jouer en 4k à mes jeux.
http://www.lcd-compare.com/televis [...] UWTSEU.htm
Je voudrais juste savoir si je me suis bien fourvoyé en pensant pouvoir jouer dessus?
Je m'explique, j'ai testé le jeu The Witcher 3 en 3860x2xxx et je me suis rendu compte que j'avais beaucoup de mal à déplacer mon personnage.
Même constat sur Crysis 3 ou la c'est la ligne de mire qui bouge beaucoup trop vite, elle fait des grands écarts c'est pas précis du tout...
Je sais que ma config n'est pas top (CG: GTX670, CPU: I5 2500K, 8Go de RAM), mais je voudrais savoir si en changeant de CG comme pour une GTX980 ou GTX970 Amp! si les problèmes vont tout simplement s'envoler?
Je pose la question car je sais que sur un ecran pour PC ca va tout changer, mais la comme c'est pas un ecran PC je pense que ca pourrait ne rien changer (a cause du temsp de reponse peut-etre ou surtout le input lag que j'ai vu sur certain forum)...
Je m'en remet donc a vos jugement/opinion pour savoir si oui ou non je peux encore espérer pouvoir jouer sur cet écran ou juste m'en servir pour des films...
J'espère avoir poser ce topic la ou il fallait, dsl si ce n'est pas le cas.
Merci pour vos réponses.