[HFR] Actu : GDC: GPU PowerVR Wizard avec ray tracing accéléré

Actu : GDC: GPU PowerVR Wizard avec ray tracing accéléré [HFR] - HFR - Hardware

Marsh Posté le 19-03-2014 à 09:55:01   1  

Imagination Technologies profite de la Game Developer Conference de San Francisco pour faire une annonce qui pourra difficilement passer inaperçue dans le ...
Lire la suite ...


Message édité par tridam le 19-03-2014 à 09:59:51
Reply

Marsh Posté le 19-03-2014 à 09:55:01   

Reply

Marsh Posté le 19-03-2014 à 10:22:11   0  

On a déjà une utilisation hybride du raytracing de la même manière dans quelques jeux non ?
Vivement que ce soit bien utilisé.

Reply

Marsh Posté le 19-03-2014 à 10:30:11   0  

Il me semble que les GPU actuels accélèrent déjà le rendu d'une scene sous 3dsMax ou mentalray.
Cuda par exemple, est une API qui permet de  demander au GPU un peu de puissance pour ça, non ?

Reply

Marsh Posté le 19-03-2014 à 10:32:09   0  

Oui il y a déjà plusieurs moteurs de rendu qui font ça pour 3DS Max / Maya / Cinema4D / Blender. Mais des fois tu as certaines fonctionnalités qui ne sont pas utilisable avec le rendu GPU. Je sais que c'est le cas pour Vray avec Vray RT.

Reply

Marsh Posté le 19-03-2014 à 11:00:40   2  

CUDA (ou openCL) permet l'utilisation des unités de calcul du GPU pour faire les calculs que tu veux en mode massivement parallèle. ça colle pour le lancer de rayon, qui est (largement) plus rapide que si il était fait via le processeur, mais les unités de calcul du GPU ne sont toutefois pas optimisés pour une telle utilisation. Ce que powerVR propose via caustic, c'est carrément d'avoir une portion de ses GPUs optimisée pour ça.
 
=> pas besoin de coder tout ça sous CUDA
=> accélération matérielle spécialisée => plus performant encore.

Reply

Marsh Posté le 19-03-2014 à 11:00:43   5  

L'avantage de l'approche de PowerVR comme expliqué dans la news c'est qu'en utilisant des unités fixes spécialisées pour accélérer certaines opérations typiques du lancer de rayon permet d'aller beaucoup plus vite / consommer beaucoup moins d'énergie que d'utiliser les unités de calcul généralistes du GPU. Les GPU font de la restérisation et ne font pas tout non plus avec les unités de calcul généralistes, ils se font aider autant que possible par des unités spécialisées (rasterizer, tesselateur, unités de texturing / filtrage, ROPs, ...).
 
EDIT : argh, 3 secondes trop tard :D


Message édité par ockiller le 19-03-2014 à 11:01:39
Reply

Marsh Posté le 19-03-2014 à 11:11:22   0  

[HS] Comment ça se fait j'ai pas les fonction éditer et supprimer ?

Reply

Marsh Posté le 19-03-2014 à 11:13:24   3  

Intéressant, les SoC mobiles ont plus de budget en transistors que de puissance électrique pour les faire fonctionner. Ils sont à la pointe pour inclure ou introduire diverses accélérations matérielles (et des cores CPU qui ne servent à rien)
 
Pour les lightmps, c'est ce qu'utilisent Quake 1, Quake 2, Quake 3, Counterstrike 1.6, Counterstrike Source (et bien d'autres exemples).
Les lightmaps sont créées quand on "compile" une map, et sont stockées avec. Ici, au lieu de les stocker on pourrait les générer au chargement de la map, et donc économiser du stockage et de la bande passante pour le téléchargement du jeu.
 
Le ray tracing a aussi des applications pour l'audio du jeu. Les echos, reverbs, occultation : tout a à y gagner. Sur un appareil mobile, cela s'apprécierait avec un casque (32 ohms). Si un DSP s'occupe des fonctions HRTF (simulation binaurale) bingo!, il y a une spatialisation dans le style des 7.1.

Reply

Marsh Posté le 19-03-2014 à 11:16:39   0  

blazkowicz a écrit :

Intéressant, les SoC mobiles ont plus de budget en transistors que de puissance électrique pour les faire fonctionner. Ils sont à la pointe pour inclure ou introduire diverses accélérations matérielles (et des cores CPU qui ne servent à rien)
 
Pour les lightmps, c'est ce qu'utilisent Quake 1, Quake 2, Quake 3, Counterstrike 1.6, Counterstrike Source (et bien d'autres exemples).
Les lightmaps sont créées quand on "compile" une map, et sont stockées avec. Ici, au lieu de les stocker on pourrait les générer au chargement de la map, et donc économiser du stockage et de la bande passante pour le téléchargement du jeu.


Sauf que c'est des lightmap statique dans ces jeux là.

Reply

Marsh Posté le 19-03-2014 à 11:27:22   2  

dommage que ça soit racheté par power VR parce que bon les puce mobile on s'en branle
 
en espérant que ce genre de techno soit adopté par AMD et NVIDIA
 
le monde du GPU est bien trop statique ces dernières année


Message édité par mazingerz le 19-03-2014 à 11:29:57
Reply

Marsh Posté le 19-03-2014 à 11:27:22   

Reply

Marsh Posté le 19-03-2014 à 12:00:44   3  

La roue re inventée ad nauseam....
J aime bien leur comparaison entre leur image et une
autre qu on croirait tirée d un tomb raider de l epoque...
Pourquoi pas une image de tetrys..???..

Reply

Marsh Posté le 19-03-2014 à 12:25:57   0  

aresias a écrit :

blazkowicz a écrit :

Intéressant, les SoC mobiles ont plus de budget en transistors que de puissance électrique pour les faire fonctionner. Ils sont à la pointe pour inclure ou introduire diverses accélérations matérielles (et des cores CPU qui ne servent à rien)
 
Pour les lightmps, c'est ce qu'utilisent Quake 1, Quake 2, Quake 3, Counterstrike 1.6, Counterstrike Source (et bien d'autres exemples).
Les lightmaps sont créées quand on "compile" une map, et sont stockées avec. Ici, au lieu de les stocker on pourrait les générer au chargement de la map, et donc économiser du stockage et de la bande passante pour le téléchargement du jeu.


Sauf que c'est des lightmap statique dans ces jeux là.


 
En effet j'avais du mal à lire cette section de l'article, et donc on pourrait calculer des lightmaps pour chaque frame dans une sorte de passe "raytracing" avant de faire le rendu proprement dit.
 
Des lightmaps précalculées peuvent se faire quand même, ne serait-ce que dans Rage l'éclairage est statique (pour le côté terrain et extérieur c'est sûr). On peut même garder un éclairage statique mais calculé au chargement en fonction d'un cycle jour/nuit, au lieu d'avoir une seule heure de la journée pour une map ou de stocker plusieurs sets d'éclairage.


Message édité par blazkowicz le 19-03-2014 à 12:26:48
Reply

Marsh Posté le 19-03-2014 à 12:45:43   0  

T'es à SF là Tridam ?

Reply

Marsh Posté le 19-03-2014 à 13:00:47   1  

abw a écrit :

La roue re inventée ad nauseam....
J aime bien leur comparaison entre leur image et une
autre qu on croirait tirée d un tomb raider de l epoque...
Pourquoi pas une image de tetrys..???..


 
c'est du mobile  :hello:

Reply

Marsh Posté le 19-03-2014 à 13:16:17   0  

Jamais rien capté au Ray Tracing... :/
Est-ce que quelqu'un aurait un dossier bien expliqué sur cette techno ?
 
Thanks!

Reply

Marsh Posté le 19-03-2014 à 13:40:15   0  

Bocal83 a écrit :

Jamais rien capté au Ray Tracing... :/
Est-ce que quelqu'un aurait un dossier bien expliqué sur cette techno ?
Thanks!


Tu calcul la lumière en lançant des millions de rayon à partir de la caméra et/ou des sources de lumières en prenant compte un maximum de toutes les propriétés de la lumière et des matériaux (réflection, réfraction, taux de pénétration de la lumière à travers la matière ect).
http://docs.chaosgroup.com/display [...] ay+Tracing

Reply

Marsh Posté le 19-03-2014 à 14:30:07   0  

il me semble que la démo temps réel de Léo est en Illumination globalle une des méthodes de RayTracing.
 
http://amd-dev.wpengine.netdna-cdn [...] o-v1.1.msi
 
http://developer.amd.com/resources [...] ime-demos/
 

Reply

Marsh Posté le 19-03-2014 à 16:45:13   0  

Merci Damien !
 
Bon voyage en Californie !  :o

Reply

Marsh Posté le 19-03-2014 à 18:41:02   2  

blazkowicz a écrit :

Intéressant, les SoC mobiles ont plus de budget en transistors que de puissance électrique pour les faire fonctionner. Ils sont à la pointe pour inclure ou introduire diverses accélérations matérielles (et des cores CPU qui ne servent à rien)
 
Pour les lightmps, c'est ce qu'utilisent Quake 1, Quake 2, Quake 3, Counterstrike 1.6, Counterstrike Source (et bien d'autres exemples).
Les lightmaps sont créées quand on "compile" une map, et sont stockées avec. Ici, au lieu de les stocker on pourrait les générer au chargement de la map, et donc économiser du stockage et de la bande passante pour le téléchargement du jeu.
 
Le ray tracing a aussi des applications pour l'audio du jeu. Les echos, reverbs, occultation : tout a à y gagner. Sur un appareil mobile, cela s'apprécierait avec un casque (32 ohms). Si un DSP s'occupe des fonctions HRTF (simulation binaurale) bingo!, il y a une spatialisation dans le style des 7.1.


 
Générer des lightmaps (il serait facile de modder un jeu basé sur Cube 2 pour faire ainsi) est très coûteux en CPU (= consommation élevée), surtout avec une définition des lightmaps élevée. L'avenir, c'est l'éclairage en temps réel, dans tous les cas. ;)


Message édité par Calinou_ le 19-03-2014 à 18:41:43
Reply

Marsh Posté le 19-03-2014 à 19:06:00   2  

mazingerz a écrit :


 
c'est du mobile  :hello:


 
Ben c est pire encore , du delire de leur part quand on lis :
 

Citation :

- Support for a range of APIs such as OpenGL ES 3.1/2.0/1.1, OpenGL 3.x, Direct3D 11 Level 10_0


 
DX10 seulement et ca discute de rendering temps reel alors qu en fait il semble
simplement qu ils ont implementé des shaders et renomment ca ray tracing
pour epater la galerie....
 
Leur image a la noix :
 
http://www.hardware.fr/medias/photos_news/00/44/IMG0044223.jpg
 
Un crysis 3 de maintenant :
 
http://techreport.com/r.x/2013_3_1_Those_nextgen_games_One_just_arrived/olddude.jpg
 
http://techreport.com/r.x/2013_3_1_Those_nextgen_games_One_just_arrived/woman.jpg

Message cité 1 fois
Message édité par abw le 19-03-2014 à 19:06:33
Reply

Marsh Posté le 19-03-2014 à 19:32:30   0  

Et encore il y avait pas l'intégration du PBR au CryEngine quand Crysis 3 est sorti ^^

Reply

Marsh Posté le 19-03-2014 à 21:34:28   0  

abw a écrit :

DX10 seulement et ca discute de rendering temps reel alors qu en fait il semble simplement qu ils ont implementé des shaders et renomment ca ray tracing pour epater la galerie....


Quand on sait pas de quoi on parle... :o
 
Faire du ray tracing dans des shaders c'est pas nouveau, ça peut même aller jusqu'à rendre toute la scène comme ça (http://www.iquilezles.org/www/material/nvscene2008/nvscene2008.htm). Remarque, on peut de la même manière s'amuser à faire de la rastérisation comme le GPU au lieu du lancer de rayons (c'est à dire TOUT faire dans un shader), ce qui n'est pas très efficace car on n'exploite plus les unités spécialisées pour les tâches génériques (en plus de devoir recoder ce que le GPU sait faire tout seul).
 
Là c'est pareil, les tâches génériques pour le lancer de rayons peuvent être prise en charge par des unités spécialisées bien plus efficaces. D'un point de vue fonctionnalités il n'y a rien de nouveau, ça accélère juste une partie des calculs, ce qui rend viable l'approche lancer de rayons pour les effets difficiles à reproduire avec de la rastérisation.
 
L'exemple du reflet sur le capot, ça aurait mérité quelque chose de plus évident mais voir apparaître la carrosserie dans son propre reflet est impossible à faire correctement avec de la rastérisation (on rend l'environnement dans une cubemap et on l'utilise pour toute la voiture, ça marche que si l'environnement est assez loin de la voiture, sinon il faudrait une cubemap par pixel de la voiture... Et pas de bol le capot de la voiture c'est généralement pas assez loin de la voiture pour que ça marche). Avec du lancer de rayons, d'ordinaire le seul problème c'est que c'est lent. Je passe sur les autres effets, l'idée c'est la même.


Message édité par ockiller le 19-03-2014 à 21:39:48
Reply

Marsh Posté le 19-03-2014 à 23:07:48   0  

150 gflops en 32bit soit comme un GPU de Kabini a tout casser,
apres tout le reste c est du blabla pour vendre leur produit.
 

Reply

Marsh Posté le 19-03-2014 à 23:52:50   0  

Park_it a écrit :

T'es à SF là Tridam ?


 
Yep je viens d'arriver :)

Reply

Marsh Posté le 20-03-2014 à 00:16:15   0  

Constat général : vous n'avez pas l'air de beaucoup apprécier les GPU mobiles. Juste pour mémoire, powerVR avaient une petite longueur d'avance avec leur prototype de carte sur 3DFX. On parle des pionniers de la 3D qui sont là depuis 1995 soit presque 20 ans.  Deja rien que le fait qu'ils concoivent encore des GPU c'est énorme. C'est eux qui ont fait le GPU de la Dreamcast, en avance pour son époque. Ils font un super travail sur les GPU des SoC et la brute qu'est la Chip A7 de l'iPhone 5s va dans ce sens (je précise, ils ne font que le GPU de l'A7, qui dépote au niveau graphismes)
Je vous dis qu'un rendu hybride raytracing / rasterizing dans un GPU ça pourrait etre de la balle pour certains effets : ombres, transparences, reflets, voir l'image de l'article. Ces mecs sont des grosses betes pour concevoir des GPU, on est peut etre enfin à la veille d'une vraie évolution dans les GPU, je suis impatient d'acheter un smartphone avec leur chip.


Message édité par thomser le 20-03-2014 à 00:17:24
Reply

Marsh Posté le 20-03-2014 à 01:11:38   2  


 
Attention à ne pas confondre les aspects techniques et artistiques des démos tech. Celle d'ImgTech ne ressemble pas à grand chose on est d'accord. Mais si on applique les mêmes principes sur ce que fait Crytek leurs images s'en trouveront améliorées aussi.

Reply

Marsh Posté le 20-03-2014 à 14:11:17   0  

J'ajouterai que, bien que gourmand en puissance, le RT simplifie la vie des développeurs et des artistes. C'est vrai que maintenant les rasterizers font un sacré boulot, au terme d'années et d'année d'affinements d'algorithmes très sioux permettant d'arriver au résultat que le RT fourni presque de facto.  
 
En gros les avantages des rasterizers sont que c'est rapide, on peut faire ça en temps réel. Par contre les développeurs doivent cogiter un max pour faire que ce soit réaliste et les artistes doivent composer avec la complexité des astuces mises en oeuvre pour arriver à ce résultat (envmaps, lightmaps, shadowmaps, ssao, sssss ... ).
 
La situation des raytracers est juste l'inverse. L'approche simule fidèlement la propagation de la lumière. Pas besoins d'astuces de malades pour arriver à un résultat réaliste. L'artiste manipule des paramètre réalistes : transmissivité, réflectivité, IOR... Par contre, ça boulotte... Il y a donc un intérêt pour accélérer la chose. Et des puces dédiées au boulot, ma foi, pourquoi pas!

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed