[HFR] Actu : CES: Les écrans G-SYNC pour le printemps

Actu : CES: Les écrans G-SYNC pour le printemps [HFR] - HFR - Hardware

Marsh Posté le 06-01-2014 à 10:40:11   0  

Durant sa conférence du CES, Nvidia a précisé le timing de l'arrivée des premiers écrans G-SYNC de série. Ce sera finalement pour le printemps et devraient ...
Lire la suite ...

Reply

Marsh Posté le 06-01-2014 à 10:40:11   

Reply

Marsh Posté le 06-01-2014 à 10:45:47   2  

'cependant probable que ce coût reste relativement élevé dans un premier temps' , c'est pourquoi je ne crois pas du tout en G-sync.
L'implanter dans la carte graphique  pourquoi pas (peut être que c'est impossible) mais dans l'écran c'est pas terrible...

Reply

Marsh Posté le 06-01-2014 à 10:51:56   0  

ils ont l'air d'y croire en tout cas , moi j'attends les prix  en 1080p 27p' déjà .merci pour cette news  
 
edith: 650 dollars le phillips 27'(144hz) apparemment , 500 en euros avec un peu de bol


Message édité par ouam49 le 06-01-2014 à 14:17:26
Reply

Marsh Posté le 06-01-2014 à 10:53:01   2  

Je croise les doigts sans trop y croire pour que les prix ne soient pas délirants ...

Reply

Marsh Posté le 06-01-2014 à 11:15:47   7  

6 fabricants à la sortie, c'est pas mal du tout.

Reply

Marsh Posté le 06-01-2014 à 11:17:26   2  

Il va y avoir le problème du prix mais aussi de la qualité des dalles.
Pour un prix proche et pour un usage généraliste ou professionnel  
il sera toujours conseillé d'opter pour un écran 4k ou IPS en 16/10 sans G-sync.
 
Bien sûr pour les possesseurs de carte ATI-AMD la question ne se pose même pas.
En espérant une solution future ou un meilleur compromis dans les pilotes de la part d'AMD.

Reply

Marsh Posté le 06-01-2014 à 11:20:19   1  

cef a écrit :

'cependant probable que ce coût reste relativement élevé dans un premier temps' , c'est pourquoi je ne crois pas du tout en G-sync.
L'implanter dans la carte graphique  pourquoi pas (peut être que c'est impossible) mais dans l'écran c'est pas terrible...

Impossible de le mettre sur la CG le but du système étant, en gros, de dire à l'écran quand est ce qu'il doit changer l'image affichée, il faut donc que ce soit pris en charge au niveau de l'écran.

Reply

Marsh Posté le 06-01-2014 à 11:25:20   1  

gugus a écrit :

cef a écrit :

'cependant probable que ce coût reste relativement élevé dans un premier temps' , c'est pourquoi je ne crois pas du tout en G-sync.
L'implanter dans la carte graphique  pourquoi pas (peut être que c'est impossible) mais dans l'écran c'est pas terrible...

Impossible de le mettre sur la CG le but du système étant, en gros, de dire à l'écran quand est ce qu'il doit changer l'image affichée, il faut donc que ce soit pris en charge au niveau de l'écran.


 
Ou alors qu'une partie de l'électronique embarquée soit capable d'être bypassée et drivée directement depuis la carte graphique. On pourrait imaginer une mise à jour du display port pour faire du V-FPS, drivé directement par la Carte Graphique et sans puce additionelle propriétaire couteuse.


Message édité par supermattt le 06-01-2014 à 11:26:04
Reply

Marsh Posté le 06-01-2014 à 11:25:53   4  

Il y a que les pigeons qui vont se rouer dessus et en payant le prix fort.
 
Le plus sage c'est d'attendre que les nouvelles normes DP/HDMI incorporent cette évolution nativement et il n'y aura plus de surcoût.

Reply

Marsh Posté le 06-01-2014 à 11:28:51   0  

supermattt a écrit :


Ou alors qu'une partie de l'électronique embarquée soit capable d'être bypassée et drivée directement depuis la carte graphique. On pourrait imaginer une mise à jour du display port pour faire du V-FPS.


 
auquel cas il faut de tt facon mettre a jour l'electronique de l'ecran pour avoir du DisplayPort avec V-FPS...
 
Nvidia devrait sortir un ASIC pour faire du G-sync, plutot qu'une solution rapide (mais couteuse) a base de FPGA. A mon avis c'est un coup d'essai pour voir si ca plait.
 
En attendant: pas de probleme avec des ecrans a taux de rafraichissement elevee (120Hz et +), peu importe votre carte graphique.


Message édité par bep le 06-01-2014 à 11:29:46
Reply

Marsh Posté le 06-01-2014 à 11:28:51   

Reply

Marsh Posté le 06-01-2014 à 11:43:23   10  


Moi le pigeon réincarné en humain, je vais acheter un écran Gsync. Pas envie d'attendre 2 ou 3 ans que ce soit entré dans la norme pour économiser quelques dizaines d'€. Et je ne vois pas pourquoi ce choix ferait de moi une personne avec les capacités intellectuelles d'un pigeon. Mais j'ai bien un point commun avec les pigeons, c'est que je me moque totalement de la compatibilité de gsync avec les cg amd.

Reply

Marsh Posté le 06-01-2014 à 11:48:07   1  

Le prix d'un écran avec G-sync: 650 dollars avec une résolution 1080P ( http://www.cowcotland.com/news/400 [...] 5dyeb.html ) donc inutile ... .  
 
 


Message édité par cef le 06-01-2014 à 11:48:19
Reply

Marsh Posté le 06-01-2014 à 11:55:46   0  

Bien hâte, j'attendrais pour l'acheter, pour l'instant j'ai un 17 po cathodique un très vieux, hâte d'avoir 2560x1080p 27po ou 29po ou 2560x1440 27po ou 29po pour aller avec ma grosse et nouvelle config. que je viens de terminer sauf l'écran...

Reply

Marsh Posté le 06-01-2014 à 12:10:30   0  

Sur l'image est indiqué un format 16/10 pour le 24".
Ce serait donc du 1920x1200 et non un simple 1080.

Reply

Marsh Posté le 06-01-2014 à 13:59:54   4  

Lykomax a écrit :

(...)
Bien sûr pour les possesseurs de carte ATI-AMD la question ne se pose même pas.
En espérant une solution future ou un meilleur compromis dans les pilotes de la part d'AMD.


bah elle se pose quand même, on doit quand même changer plus souvent de CG que d'écran...
 
C'est pour moi le vrai frein de cette techno propriétaire par contre: t'achètes un écran comme ca derrière tu va te sentir obligé d'acheter une nvidia, même si c'est pas le choix le plus raisonnable à ce moment là :/
 
je sais pas s'il faut espérer que cette technologie se vautre pour que nvidia revoie sa copie vers une version plus ouverte; qu'elle cartonne pour que les autres constructeurs cherchent a en acquérir la licence; ou simplement qu'elle vivote le temps qu'une techno concurrente ouverte arrive :o

Message cité 2 fois
Message édité par blastm le 06-01-2014 à 14:00:18
Reply

Marsh Posté le 06-01-2014 à 14:53:24   1  

blastm a écrit :


je sais pas s'il faut espérer que cette technologie se vautre pour que nvidia revoie sa copie vers une version plus ouverte; qu'elle cartonne pour que les autres constructeurs cherchent a en acquérir la licence; ou simplement qu'elle vivote le temps qu'une techno concurrente ouverte arrive :o

 

C'est vrai et que dire de Mantle de la part d'AMD...
Il faut s'y faire. Chacun essaie de se demarquer de la concurrence.
Quand cela fait diminuer le prix la concurrence est une bonne chose mais quand cela segmente le marche… je trouve cela moins interessant.

Message cité 1 fois
Message édité par Nono0000 le 06-01-2014 à 15:12:25
Reply

Marsh Posté le 06-01-2014 à 15:10:32   1  

Nono0000 a écrit :

C'est vrai et que dire de Fusion de la part d'AMD...


bah, je sais pas si on peut faire le parallèle, Fusion, atom ou tegra n'ont pas créés de lien avec une techno propriétaire là ou il n'y en avait pas avant, comme le fait gsync entre l'unité centrale et son écran...
même la philosophie derrière Enduro ou Optimus n'allait pas aussi loin :/

Reply

Marsh Posté le 06-01-2014 à 15:11:50   0  

blastm a écrit :

Nono0000 a écrit :

C'est vrai et que dire de Fusion de la part d'AMD...


bah, je sais pas si on peut faire le parallèle, Fusion, atom ou tegra n'ont pas créés de lien avec une techno propriétaire là ou il n'y en avait pas avant, comme le fait gsync entre l'unité centrale et son écran...
même la philosophie derrière Enduro ou Optimus n'allait pas aussi loin :/


 
Desole je voulais dire Mantle :)

Reply

Marsh Posté le 06-01-2014 à 15:17:04   3  

blastm a écrit :


je sais pas s'il faut espérer que cette technologie se vautre pour que nvidia revoie sa copie vers une version plus ouverte; qu'elle cartonne pour que les autres constructeurs cherchent a en acquérir la licence; ou simplement qu'elle vivote le temps qu'une techno concurrente ouverte arrive :o


Non mais même pas. C'est pas une solution. Faut que ca passe par un nouveau standard DP/HDMI, il n'y a pas d'alternative possible.
 
Vous oubliez un détail, le marché des écrans PC, est d'une lenteur phénoménale quand il s'agit d'implémenter un nouveau standard (regardez le temps qu'il a fallu pour avoir des écrans avec DP, ou de passer du VGA au DVI....), ou d'innover, par exemple en terme de finesse de dalle, bordure (alors que des TV, Phone y arrivent depuis longtemps...), voire de hautes résolutions d'écran (alors que du côté des phones/tablettes c'est la course effrénée), sans parler de l'OLED qu'on attend toujours....
Bref c'est un marché avec une inertie assez énorme, faudrait un juste milieu avec celui du marché des écrans pour appareils mobiles qui est presque trop dynamique et qui enlève des ressources qui auraient pu être allouées au développement de dalles PC.
 
Bref le marché des écrans PC est extrêmement lent. Si en plus tu rajoutes une techno qui est limitée aux gamer, tu peux être sûr que ce type d'écran se compteront sur les doigts des mains et par conséquence seront très chers ou ayant un rapport perf/prix mauvais. Déjà que c'est la plaie pour trouver un très bon écran si en plus faut rajouter le critère G-Sync....
 
Seul un nouveau standard de connectique, prenant en compte cette problématique de refresh, peut corriger ce défaut, tout le reste est voué à rester un marché de niche.


Message édité par le 06-01-2014 à 17:07:46
Reply

Marsh Posté le 06-01-2014 à 15:39:42   2  

Nono0000 a écrit :

Desole je voulais dire Mantle :)


Connais pas vraiment les modalités, mais dans le cas de mantle, AMD a annoncé que c'etait une techno qui serait ouverte aux autres constructeurs, donc du coups.. :/

Reply

Marsh Posté le 06-01-2014 à 16:03:16   1  

blastm a écrit :


Connais pas vraiment les modalités, mais dans le cas de mantle, AMD a annoncé que c'etait une techno qui serait ouverte aux autres constructeurs, donc du coups.. :/


ça semble très peu probable que NVidia et Intel confient volontairement la maitrise d'œuvre de l'API à leur concurrent. Il faudrait vraiment un gros succès commercial de Mantle pour forcer NVidia/Intel à adopter Mantle et ainsi se soumettre à la bonne volonté d'AMD.

Reply

Marsh Posté le 06-01-2014 à 16:51:45   0  

blastm a écrit :


Connais pas vraiment les modalités, mais dans le cas de mantle, AMD a annoncé que c'etait une techno qui serait ouverte aux autres constructeurs, donc du coups.. :/

 

Moi ce que j'ai lu c'est que "Mantle n'avait pas ete pensee au depart pour adresser une architecture en particulier" (ce qui ne veut pas dire grand-chose). Et que pour le moment ils n'ont rien decide quant a la facon de delivrer l'API (en dehors de BF4)
Enfin cela est hors sujet.

 

Pour revenir a G-sync, l’avantage comme l’a dit Tridam c’est de mettre un coup de pied au c.. aux fabricants d’ecran et au VESA plus generalement.
Tout comme Mantle peut faire la meme chose a MS et au Khronos group. (meme si je serais plus modere car une nouvelle API dediee tourne forcement plus vite qu’une generaliste qui a une longue liste de fonctions "legacy" )


Message édité par Nono0000 le 06-01-2014 à 16:53:21
Reply

Marsh Posté le 06-01-2014 à 18:08:30   2  

J'ai une idée AMD laisse Nvidia utiliser gratuitement Mantle pour ses cartes actuelles ou futures, en contrepartie Nvidia offre la licence G-sync à AMD, et les joueurs sautent de joie et tout le monde s'embrassent.
 
Oui je sais je rêve :)  
 
La réalité c'est qu'une nouvelle guerre de format propriétaire s'annonce et qu'il faudra faire avec les avantages-désavantages de chaque marques.

Reply

Marsh Posté le 06-01-2014 à 19:34:08   1  

Bof, Bof, aujourd'hui on a pour 500euros des 24" à 120hz (voir 240Hz)et  et compatible toutes cartes graphiques et en dalle VA le rendu (contraste, couleurs) n'a rien, mais alors rien à voir avec les dalles TN qui ne sont toujours pas capable d'afficher un vrai noir. alors le Gsync pour plus cher, aucun intérêt.

Reply

Marsh Posté le 06-01-2014 à 19:48:43   0  

Qu'est ce que ça apporte vraiment de plus le G-sync ?? Est ce que quelqu'un peut me l'expliquer simplement ?

Reply

Marsh Posté le 06-01-2014 à 19:56:56   0  

marcaurel15 a écrit :

Qu'est ce que ça apporte vraiment de plus le G-sync ?? Est ce que quelqu'un peut me l'expliquer simplement ?


http://www.hardware.fr/articles/914-1/nvidia-g-sync-test-jeux-fluides-des-40-fps.html

Reply

Marsh Posté le 06-01-2014 à 23:55:57   1  


 
Il faut aller faire un tour en clinique car quand on aime être en prison il y a un problème quelque part.
 
edit: la nouvelle concernant freesync confirme bel et bien que tu es un pigeon :D
rouuuh rouuuh rouuuh


Message édité par ledesillusionniste le 07-01-2014 à 11:05:28
Reply

Marsh Posté le 07-01-2014 à 15:40:31   0  

Lykomax a écrit :

J'ai une idée AMD laisse Nvidia utiliser gratuitement Mantle pour ses cartes actuelles ou futures, en contrepartie Nvidia offre la licence G-sync à AMD, et les joueurs sautent de joie et tout le monde s'embrassent.
 
Oui je sais je rêve :)  
 
La réalité c'est qu'une nouvelle guerre de format propriétaire s'annonce et qu'il faudra faire avec les avantages-désavantages de chaque marques.


 
Je crois que le coût de développement d'une API comme Mantle est largement supérieur à celui d'une puce intégrée à l'écran, qui de plus, sera un standard en cours d'année...  
http://www.hardware.fr/news/13517/ [...] atuit.html
 
Ceci dit, ça se vendra quand même...


Message édité par Omelmike le 07-01-2014 à 20:53:55
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed