[HFR] Actu : GTC: GeForce GRID: jouer depuis le cloud

Actu : GTC: GeForce GRID: jouer depuis le cloud [HFR] - HFR - Hardware

Marsh Posté le 28-05-2012 à 15:20:01   0  

Avec la famille de GPU Kepler, Nvidia vise un nouveau marché : cloud computing. Nous vous avons déjà parlé du pan professionnel de cette stratégie avec VGX ...
Lire la suite ...

Reply

Marsh Posté le 28-05-2012 à 15:20:01   

Reply

Marsh Posté le 28-05-2012 à 15:47:38   2  

Ils encodent en h264 avec quoi ? Leurs cartes vidéos ? Parce que vu la qualité d'encodage, autant jouer en 320x240 avec 8 bits de couleurs...

Reply

Marsh Posté le 28-05-2012 à 16:30:13   2  

ça ne fonctionne pas chez moi Gaikai, à noter il faut passer par  facebook...

Reply

Marsh Posté le 28-05-2012 à 16:51:04   1  

Le principal frein a la qualité de l'image est amha la bande passante de la connexion du client.
Si on prend l’exemple d'un flux H264 en 720p 24i/s encodé avec un bitrate de 4Mo/s, on obtient normalement une qualité d'image correcte.
Si on extrapole pour 60i/s, il faudrait donc doubler le débit.
Pour obtenir une qualité satisfaisante, il faudrait que le client possède une connexion de 1MO/s réel, ce qui n'est pas le plus courant.
Et si on ajoute le GOP statique de l'encodeur, c'est pas pour demain que la qualité sera au rendez-vous  :D

Reply

Marsh Posté le 28-05-2012 à 17:37:59   0  

j'ai déjà joue sur Gaikai . c'est pas mal graphiquement . niveau ping c'est pas top . sachant que j'ai entre 80 et 100 ms dans les jeux multi (CSS ; BF3 ; L4D)
donc d'après le graff je joue avec 200 a 230 ms total .

Reply

Marsh Posté le 28-05-2012 à 17:46:55   0  

Gein a écrit :

Le principal frein a la qualité de l'image est amha la bande passante de la connexion du client.
Si on prend l'exemple d'un flux H264 en 720p 24i/s encodé avec un bitrate de 4Mo/s, on obtient normalement une qualité d'image correcte.
Si on extrapole pour 60i/s, il faudrait donc doubler le débit.
Pour obtenir une qualité satisfaisante, il faudrait que le client possède une connexion de 1MO/s réel, ce qui n'est pas le plus courant.
Et si on ajoute le GOP statique de l'encodeur, c'est pas pour demain que la qualité sera au rendez-vous  :D


Avec l'arrivé du HEVC (h.265) ce problème devrait être réglé en principe.

Reply

Marsh Posté le 28-05-2012 à 17:51:39   0  

Ne condamnons pas une initiative comme celle là ! Certes, c'est un peu limité actuellement, mais je pense que l'avenir est dans des systèmes similaires. On voit de plus en plus de jeux 3D inclus dans les navigateurs (avec des plugins en local), et cela permettrait d'uniformiser les performances, surtout pour les petits systèmes (smartphones, tablettes, ultrabook).

Reply

Marsh Posté le 28-05-2012 à 18:09:51   0  

Le graph utilise une latence de 66ms pour le display, ça me parait énorme , c'est une valeur moyenne pour les TV ???
En tout cas, avant que le cloud gaming arrive au niveau d'un pc pour la  latence, les réseaux vont devoir faire de sacrés progrès, à mon avis faudra du réseaux temps réel  pour avoir une chance que la latence soit à peu près constante...


Message édité par Fanfan71 le 28-05-2012 à 18:10:50
Reply

Marsh Posté le 28-05-2012 à 18:22:09   0  

marche pas gaika. techno impossible sans une bande passante démultipliée par rapport à aujourd'hui. Ceci dit, on peut peut-être déjà imaginer du cloud computing en entreprise avec un réseau en gigabite ethernet mais pas pour du jeu mais pour des applications 3D.

Reply

Marsh Posté le 28-05-2012 à 18:43:26   0  

"Les mauvaises langues diront .." que les choix de nvidia sont trop en avance sur leur temps, et que pour le moment se toucher sur ce genre de techno c'est juste de la touchette.

Reply

Marsh Posté le 28-05-2012 à 18:43:26   

Reply

Marsh Posté le 28-05-2012 à 18:44:22   0  

Fanfan71 a écrit :

Le graph utilise une latence de 66ms pour le display, ça me parait énorme , c'est une valeur moyenne pour les TV ???
En tout cas, avant que le cloud gaming arrive au niveau d'un pc pour la  latence, les réseaux vont devoir faire de sacrés progrès, à mon avis faudra du réseaux temps réel  pour avoir une chance que la latence soit à peu près constante...


 
+1k
C'est clair, là ya vraiment de latence! :/
Mais y'a de l'idée en tout cas dans le principe.  

Reply

Marsh Posté le 28-05-2012 à 19:02:09   0  

SynE a écrit :

"Les mauvaises langues diront .." que les choix de nvidia sont trop en avance sur leur temps, et que pour le moment se toucher sur ce genre de techno c'est juste de la touchette.


C'est certain, celui qui ne tente rien ne risque pas de se tromper...

Reply

Marsh Posté le 28-05-2012 à 19:14:48   0  

donc pour le moment c'est loin d'etre mis en place par contre je vois un avantage : tous les jeux utiliseront le maximum de ressource et donc les jeux devraient etre plus beau, vu que maintenant les graphismes sont limités par les consoles toutes pourrites.  
 
En inconvénient, quid des jeux indépendants ? parce que si le pc devient un simple terminal quelle boutique de serveur de jeu ira investir dans un jeu indépendant plein de créativité qui pourrait plaire au lieu de maintenir un monopole des éditeurs cupides à la EA et activision.

Reply

Marsh Posté le 28-05-2012 à 19:54:40   0  

Ca fonctionne pour Dead Rising 2 ... mais qu'es qu'il y a plein d'artefacts !

Reply

Marsh Posté le 28-05-2012 à 21:39:46   0  

C'est assez impressionnant de pouvoir jouer sur un vieux portable à des gros jeux mais pour l'instant, la compression est horrible et le niveau de détail est loin du maximum comme pour la résolution. Idem, il y a une sensation de manque de fluidité assez importante.
 
Le cloud pose aussi un problème. On n'a plus de possibilité d'avoir des mods, de modifier le jeu si on veut (fichier ini, patch non officiel fait par la communauté etc...) et c'est la liberté pour l'éditeur de tout fermé et de finir par faire payer un abonnement pour tout jeu car on ne possède plus rien. c'est comme si on jouait à un MMO.

Reply

Marsh Posté le 28-05-2012 à 21:41:03   0  

Niveau marketing c'est quand même pas mal pour eux:
Ils vont équiper des threads de post traitement aux hébergeur. chaque thread correspondant à un client en ligne et à une partie de hardware donc des €€€... des €€€ pour un joueur qui n'aurait peut être pas les moyens de s'équiper en gros gpu et donc de faire rentrer les mêmes €€€ sur la balance de nvidia!
Après, j'imagine l'investissement en ressources pour arroser le client à sa porte!  
   

Reply

Marsh Posté le 29-05-2012 à 02:09:58   0  

@Tridam: Sur le graphique "Game Latency", Nvidia n'aurait-t-il pas oublié le temps de latence induit par l'envoi des commandes de jeu à travers le réseau ? En effet, les étapes présentées sur le graphique débutent comme si l'on jouait à même le serveur. Or si serveur il y a, c'est que justemment le joueur n'est pas dans la même pièce que le GRID ; il envoit ses commandes depuis une machine cliente distante qui engendre une latence initiale (sans compter les micro-latences entre le(s) périphérique(s) de saisie et l'UC ;)). Les étapes ne devraient-elles donc pas être les suivantes :
1. Command
2. Network
3. Game pipeline
4. Capture/Encode
5. Network
6. Decode
7. Display ?
Rassure-moi, il ne s'agit pas de supprimer toutes interactions du joueur ?! Le cloud-gaming fait déjà suffisamment froid dans le dos en enlevant au joueur toute indépendance vis à vis des éditeurs pour ne pas en rajouter...


Message édité par icorgnobi le 29-05-2012 à 02:33:46
Reply

Marsh Posté le 29-05-2012 à 04:11:58   0  

Ce graphique Nvidia est une simplification grossière. Soit ils estiment la latence de l'envoi des commandes comme négligeable par rapport au reste soit elle est inclue dans la partie network.

Reply

Marsh Posté le 29-05-2012 à 11:27:24   2  

Pourquoi j' ai l' impression que le cloud gaming ressemble à une prise d' otage avec rançon à la clé..

Reply

Marsh Posté le 29-05-2012 à 16:58:28   0  

Pensez aux avantages ! Plus de patch, toujours une version à jour, pas besoin d'installer le jeu si on change de machine, vous pouvez jouer chez mamie gateaux ou pendant les vacances au cyber du coin !
"Think positive" au lieu de pleurer tout le temps. Et cela ne concernera qu'un petit nombre de jeux, et pas forcément que des jeux d'actions.

Reply

Marsh Posté le 29-05-2012 à 17:10:26   0  

Chez nVidia on n'est pas très objectif... Et l'objectif du graphique de cette présentation est clair: nous faire croire que c'est pareil que de jouer sur sa console à la maison.
 
*Pourquoi la latence réseau passe-t-elle de 75 à 30ms ? Ils comptent mettre des serveurs vraiment partout ? Et qu'en est-il des joueurs de régions différentes ? Soit ils ne pourront pas jouer ensemble, soit il faudra ajouter la latence entre 2 serveurs.
 
*Pourquoi le pipeline du jeux passe-t-il de 100ms à 50ms ? Si on peut effectivement y arriver sur le serveur, alors pourquoi pas sur PC ou console?
 
*Pourquoi comparer le cloud aux consoles si c'est pour y faire tourner des jeux PC (d'ailleurs sur le premier schéma, c'est un laptop qui est représenté) ? En effet, on raccorde plus souvent sa console à une TV LCD qui peut avoir entre 30 et 100ms de latence d'affichage d'après les tests de certains sites. Mais un PC est lui plus souvent raccordé à un CRT ou un LCD avec très peu de traitement (car en TN les dalles sont suffisamment réactives pour ne pas avoir à calculer des images en plus) donc avec un retard bien inférieur aux 66ms utilisées comme base de calcul.

Reply

Marsh Posté le 29-05-2012 à 17:14:51   0  

SynE a écrit :

"Les mauvaises langues diront .." que les choix de nvidia sont trop en avance sur leur temps mauvais, et que pour le moment se toucher sur ce genre de techno c'est juste de la touchette.


corrigé XD


Message édité par BlueScreenJunky le 29-05-2012 à 17:15:03
Reply

Marsh Posté le 29-05-2012 à 21:17:30   0  

Ah le Marketo-Cloud, c'est bô.
Et sinon, ça coûte combien de jouer à ces jeux avec un encodage fait à l'arrache,un niveau graphique moyen et une bonne grosse latence des familles ?
Le même prix que chez soi ?

 

A ben merci, je jouerai chez moi alors.
Suivant !

 

Note pour Nvidia :
Au lieu de perdre du temps avec ces âneries, si vous pouviez vous concentrer sur la perf de vos puces, ça éviterait de refourguer du MdG au prix du HdG et de prendre vos clients pour des pigeons.
Merci d'avance.


Message édité par dricks2222 le 29-05-2012 à 21:19:16
Reply

Marsh Posté le 30-05-2012 à 00:19:06   0  

Comme le Pentium III [:rofl]
 
Je trouve la "news" fort "accommodante" [:bouliyaanisqatsi]


Message édité par 404 Not Found le 30-05-2012 à 00:20:38
Reply

Marsh Posté le 30-05-2012 à 18:07:55   0  

l'idée est bonne reste à démocratiser la fibre optique...

Reply

Marsh Posté le 31-05-2012 à 01:52:59   0  

dricks2222 a écrit :

Note pour Nvidia :
Au lieu de perdre du temps avec ces âneries, si vous pouviez vous concentrer sur la perf de vos puces, ça éviterait de refourguer du MdG au prix du HdG et de prendre vos clients pour des pigeons.
Merci d'avance.


Le problème actuel de NVidia, c'est qu'ils attendent la réponse d'AMD a leur 680, pour sortir le haut de gamme Kepler. Leur "gamme moyenne" étant très (trop ?) performante. Donc ta remarque est disons... erronée.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed