[HFR] Actu : CES: Imagination: ray tracing en démonstration

Actu : CES: Imagination: ray tracing en démonstration [HFR] - HFR - Hardware

Marsh Posté le 22-01-2016 à 06:07:53   0  

Lors de la GDC 2014, Imagination avait annoncé la possibilité d'intégrer à ses GPU un module d'accélération matérielle du ray tracing, ce que nous avions ...
Lire la suite ...

Reply

Marsh Posté le 22-01-2016 à 06:07:53   

Reply

Marsh Posté le 22-01-2016 à 06:07:53   0  

J'en veux un pour mon pc eco+


Message édité par bouine le 22-01-2016 à 06:09:17
Reply

Marsh Posté le 22-01-2016 à 07:41:42   0  

Sympa :)
Je n'ai aucune idée si çà peut s'intégrer facilement dans une config actuelle mais pour Blender&co et les jeux çà serait vraiment sympa.
Ou pousser nVidia et AMD a intégré çà dans leur carte, un peu plus utile que Physx je trouve.
Bon après çà ferait peut un trop gros GPU (?)


Message édité par Krest le 22-01-2016 à 07:42:09
Reply

Marsh Posté le 22-01-2016 à 08:03:58   5  

Si ça pouvait enfin mettre un coup d'arrêt aux cartes énergivores qui ne trouvent plus de salut sans 1, 2 ou 3 ventilateurs voir de la plomberie ce serait un vrai progrès.
Après-tout j'ai toujours considéré ces prothèses de dispersion comme des régressions technologiques. La norme devrait être le passif et l'OC devrait faire l'objet d'un permis d'expérimentation.

Reply

Marsh Posté le 22-01-2016 à 08:06:27   0  

Cela reste loin d'être un produit commercialement viable contre les GPU ou APU.
 
Les consoles c'est inenvisageable. Ils ferait mieux de se concentrer sur le mobile, et de mettre un support opengl. c'est leur meilleur chance.

Reply

Marsh Posté le 22-01-2016 à 08:16:56   1  

Citation :

la géométrie et l'éclairage sont dynamiques et mettent en avant les multiples niveaux de réflexions ainsi que des ombres aux contours parfaits, ce que la rastérisation classique ne parvient pas à obtenir, même en ayant recours à plusieurs niveaux de détails avec les cascaded shadow maps.


Et avec les shadow volumes ? :whistle:  
 

Citation :

Si ça pouvait enfin mettre un coup d'arrêt aux cartes énergivores qui ne trouvent plus de salut sans 1, 2 ou 3 ventilateurs voir de la plomberie ce serait un vrai progrès.  
Après-tout j'ai toujours considéré ces prothèses de dispersion comme des régressions technologiques. La norme devrait être le passif et l'OC devrait faire l'objet d'un permis d'expérimentation.


Rien n'empêche de faire un tel GPU en 600 mm² @ 300 W, ça ne change rien par rapport à aujourd'hui ;)

Reply

Marsh Posté le 22-01-2016 à 09:00:46   2  

ockiller a écrit :

Citation :

la géométrie et l'éclairage sont dynamiques et mettent en avant les multiples niveaux de réflexions ainsi que des ombres aux contours parfaits, ce que la rastérisation classique ne parvient pas à obtenir, même en ayant recours à plusieurs niveaux de détails avec les cascaded shadow maps.


Et avec les shadow volumes ? :whistle:  
 


 
Y a d'autres problèmes :p Pas de soft shadows, ça ne marche pas avec les objets simulés via alpha test (type grillages, feuilles etc.), ça scale très mal avec le hardware.

Reply

Marsh Posté le 22-01-2016 à 09:21:05   0  

tridam a écrit :

ockiller a écrit :

Et avec les shadow volumes ? :whistle:


Y a d'autres problèmes :p Pas de soft shadows, ça ne marche pas avec les objets simulés via alpha test (type grillages, feuilles etc.), ça scale très mal avec le hardware.


> Pas de soft shadows
Si, depuis au moins 2002 - https://www.opengl.org/discussion_b [...] ost1046651
 
> objets simulés via alpha test
En effet
 
> ça scale très mal avec le hardware.  
Non, avec la résolution : énorme coût en fillrate.

Reply

Marsh Posté le 22-01-2016 à 10:08:22   1  

100 mm²  
Olala, c'est à la fois beaucoup pour le monde mobile, et très peu pour le monde PC (Ca doit être à peine la taille d'un die de chipset).
C'est fou ce que cette techno serait capable de faire si la puce avait 3 fois plus d'unités de calcule (pour arriver à la même surface de die que les GPU)
 
Sinon le rendu temps réel s'est fait à quelle résolution?


Message édité par fredo3 le 22-01-2016 à 10:09:24
Reply

Marsh Posté le 22-01-2016 à 10:15:37   0  

Splendide! Enfin une démo révolutionnaire : nouveau paradigme technologique et différence abyssale en consommation

Reply

Marsh Posté le 22-01-2016 à 10:15:37   

Reply

Marsh Posté le 22-01-2016 à 10:17:11   2  

barbare128 a écrit :

Cela reste loin d'être un produit commercialement viable contre les GPU ou APU.
 
Les consoles c'est inenvisageable. Ils ferait mieux de se concentrer sur le mobile, et de mettre un support opengl. c'est leur meilleur chance.


 
Trop fort, tu devrais leur écrire, car ils lisent pas les forums francophones.

Reply

Marsh Posté le 22-01-2016 à 10:35:41   0  

Dommage qu'ils utilisent des gpu avec 2 génération de retard.
Pour un équivalent au 4 cartes dans un soc il faudra attendre je pense le 10 nm et on sera à une taille conparable au soc d'ipad d'Apple.

Reply

Marsh Posté le 22-01-2016 à 11:12:36   0  

omagad le retour de powerVR... y'a qu'a espérer que ce soit mieux que les Rendition de la grande époque XD

Reply

Marsh Posté le 22-01-2016 à 11:20:30   0  

bas c'est pas un retour il domine le monde du GPU
 
il se vend bien plus de téléphone portable que de PC  
 
en tout cas c'est impressionnant, a conso égal ça serais la branlé total

Message cité 1 fois
Message édité par mazingerz le 22-01-2016 à 11:21:16
Reply

Marsh Posté le 22-01-2016 à 11:25:35   1  

Le problème du raytracing reste dans l'indexation spatiale.
- Pour la géométrie statique, les BVH sont efficaces  
- Pour du dynamique - tout ce qui est "vertex-shadé", skinné - est hautement temporellement incohérent au niveau indexation (du triangle) et nécessite plus des voxels/octree ou autre structure rapide à reconstruire ou mettre à jour incrémentalement, ce qui est beaucoup moins rapide à indexer lors des recherches de collision rayon/primitive au moment du rendu.
- L'entièreté de la scène peut avoir besoin d'être visible par le GPU, mais on peut imaginer un mécanisme de proxy pour faire du LOD.
 
En termes de rendu, le raytracing est une méthode d'approximation comme une autre, et est toujours présentée encore et encore (en temps réel) avec des ombres dures (un seul shoot de rayon au lieu des 8x~64x rayons pour faire soft shadowing, ha ouais ce sera pas le même framerate, un raytracer passe 60~80% de son temps à faire de la recherche d'intersection, le filtrage des textures et les maths d'illumination restent minoritaires en coût par pixel), des modèles d'illumination qui n'ont pas l'air globaux.
 
Assouplir les GPU pour qu'ils aient une circuiterie favorable aux balayages et de constructions de BVH, octree, voxel, oui.
 
La raytracing pour le raytracing : algorithmiquement c'est plus lourd que la rasterisation (donc le rapport de performances est invariant avec le budget transistor), et à chaque fois le rendu présenté fait l'impasse sur les approximations de rendu photo-réalistes qu'on fait sur des rasteriseurs de manière cheap (tout est relatif) : "ho regardez notre renderer avec des hard-shadows qui est compétitif avec un rasteriseur" = technique de vendeur de vin bof qui te le fait goûter avec du fromage :D
 
-après- toute initiative est louable, mais rien n'est gratuit et y'a pas de solutions magiques, le temps réel passe par des gruges spatiales et temporelles et algorithmiques, ce qui est pour le moment (en l'état des connaissances) plus facile à faire avec un rasterizer qu'un ray-tracer.
 
Néanmois, il y a des points de basculement (où gruger tel approximation de manière ray-tracing like est plus rentable qi'une approche rasterisée), et donc la R&D avec des démonstrateurs technologique est nécessaire.  
 
Les paradigmes de rendu changent par point de basculement (la normalisation du paradigme du zbuffer avec les cartes 3D, faire un test par pixel plutôt que trier les triangles c'était le mal en rendu CPU à l'époque des 486/Pentiums 1).
 
Donc qui vivra verra.


Message édité par bjone le 22-01-2016 à 15:36:31
Reply

Marsh Posté le 22-01-2016 à 11:37:03   0  

mazingerz a écrit :

bas c'est pas un retour il domine le monde du GPU
 
il se vend bien plus de téléphone portable que de PC  


 
Non-argument (de vendeur de pinard à carrefour)
 

Citation :

en tout cas c'est impressionnant, a conso égal ça serais la branlé total


Comme j'ai expliqué plus haut :
- oui si on joue avec les règles du raytracer (1 ray par pixel : pas d'AA, pas de soft-shadows, pas d'illumination globale)
- non si on si sert du raytracer pour produire une image similaire aux meilleurs moteurs qui font sur soft-shadowing de partout, et de l'illumination globale.
- oui si on arrive à une archi efficace sur les deux paradigme :  
  * que le circuiterie soit autant capable d'un rasterisation efficace => topologie linéaire fortement pipelinée
  * et qu'elle soit aussi efficace en indexation spatiale => topologie faiblement pipelinée pour parcourir des arbres et structures complexes
 
Samsung avait fait un papier/brevet sur un GPU souple.
 

Spoiler :

Après je peux raconter de la merde, mais c'est tout ce que je peux expliquer avec mon expérience perso/pro et des papiers et observation des dizaines de tentatives avortées d'hardware présentée comme étant ray-tracing friendly.


 
Le ray-tracing est un peu la machine à mouvement perpétuel du rendu, à chaque fois lors des présentations d'un renderer ou d'un gpu, le mec qui présente le truc fait bien bien bien bien attention à éviter de dire que leur démo se fait avec un nombre de lancé de rayons de minimum et une scène bien statique pour ne pas avoir à reconstruire/updater les strucutres d'indexation spatiales.
( enfin de moins en moins quand même ;) )

Message cité 1 fois
Message édité par bjone le 22-01-2016 à 11:53:46
Reply

Marsh Posté le 22-01-2016 à 11:39:35   0  

Des fois, je me trouve technique, parce que ce que je dis n'est pas compris. mais là... c'est au niveau au dessus.
 
Un peu de vulgarisation pour que je puisse comprendre?

Reply

Marsh Posté le 22-01-2016 à 12:08:59   0  

La rasterisation c'est:
Pour chaque triangle
   Pour chaque fragment/pixel
      Calculer la couleur (fragment shader)
 
Le ray tracing c'est:
Pour chaque fragment/pixel
   Pour chaque triangle
      Calculer la couleur (fragment shader)
 
La différence c'est l'ordre des boucles, qui a un impact majeur sur les algorithmes qui rendent le rendu rapide.
 
Pour le rasteriser, on balance des tonnes de triangles présents dans le champ de la caméra [-occultés], et on les projète sur la surface, avec une grande cohérence spatiale, et dans le calcul des fragments/pixels, donc on peut paralleliser ça facilement.
Pour le raytracer, il faut trouver l'intersection de chaque rayon avec le triangle le plus proche, donc une structure d'accélération (ici matérielle), puis calculer la couleur des fragments/pixels, pour les rayons primaires on a aussi pas mal de cohérence, donc parallelisable.
 
Pour avoir en plus des ombres, de la transparence, de la fumée... Avec un rasteriser tout est ad-hoc, autrement dit, une astuce différente par effet, avec des problèmes d'échantillonnage... Un sac de noeuds, apres de nombreuses années d'effort on arrive enfin a des trucs pas trop dégueulasse.
Avec un ray tracer par contre, on balance plus de rayons dans la scene, ceux ci sont dénommés rayons secondaires et sont moins cohérents, mais avec certains algorithmes on arrive a de bon résultats niveau parallelisme. L'avantage c'est qu'il n'est pas nécessaire d'avoir un sac d'astuces, on ne fait que lancer d'avantages de rayons, avec le bon shader et c'est tout. Bcp plus élégant, plus facile a mettre en oeuvre, a tester, a entretenir...
 
Dans le cas de PowerVR Wizard il y a un circuit dédié a la génération de la structure d'accélération, et un circuit dédié aux calculs d'intersections, ce qui permet de se débarrasser des points critiques pour un ray tracer.
En plus il est possible de faire du rendu hybride, on peut donc tout à fait envisager de faire un rendu en rasterisation de prime abord, avant de passer a du ray tracing/path tracing/bidirectional path tracing...
 
Et pour info il y a des français a IMG :p
 
P.S. J'ai omis le depth test au tt début pour les deux algos histoire garder quelque chose de tres simple a comprendre.


Message édité par Ingenu_ le 22-01-2016 à 12:10:51
Reply

Marsh Posté le 22-01-2016 à 12:09:21   0  

Par contre je suis pas en train de dire, que le raytracing c'est le mal, je suis juste en train de dire que dans un contexte temps-réel, ce n'est pas la solution à tous les problèmes.
 
Et que oui on va vers un rendu hybride, mais suis pas sûr qu'un asic totalement dédié avec un choix d'implémentation d'indexation spatiale fixe soit la solution.
L’intérêt des rasterizers actuel c'est qu'ils ont de la souplesse.  
 
Sur un raytracer à indexation fixe tu imposes des restrictions à la scène.
 
Le choix et l'implémentation de la technique d'indexation doit être le plus possible à la charge des développeurs.  
 
Car c'est la nature de la scène qui fait la nature de l'indexation.  
 
D'où la nécessité d'avoir des GPU flexibles et non de refaire réémerger des API haut-niveau restrictives.

Message cité 1 fois
Message édité par bjone le 22-01-2016 à 13:14:23
Reply

Marsh Posté le 22-01-2016 à 12:56:51   0  

Le ray tracing, le dada de Marc :D

Reply

Marsh Posté le 22-01-2016 à 13:40:02   0  

:??:

Reply

Marsh Posté le 22-01-2016 à 13:48:09   0  

Les 2 techniques de rendue semble complémentaire.
A quand un gpu nvidia et AMD qui lui utilise ?  
A quand une api compatible ?

Reply

Marsh Posté le 22-01-2016 à 14:01:24   0  

Il devait surement parler de Marc Levoy ^_^
https://en.wikipedia.org/wiki/Marc_Levoy

Reply

Marsh Posté le 22-01-2016 à 15:09:14   0  

bjone a écrit :


technique de vendeur de vin bof qui te le fait goûter avec du fromage :D


bjone a écrit :


Non-argument (de vendeur de pinard à carrefour)


Toi, tu as eu une mauvaise expérience ! Tu veux en parler ?   ;)  

Reply

Marsh Posté le 22-01-2016 à 15:33:41   0  

Non, mais je pensais à ça sur le coup des hard-shadows par faites, alors que sur un raytracer, si tu veux faire des soft-shadows ça coute un bras rapidement alors que sur un rasterizer tu joues avec le kernel de filtrage :D
 
Après raycaster en pack est assez cache-coherent au niveau indexation spatiale, mais bon... :D


Message édité par bjone le 22-01-2016 à 15:34:37
Reply

Marsh Posté le 22-01-2016 à 15:42:33   3  

bjone a écrit :

Par contre je suis pas en train de dire, que le raytracing c'est le mal, je suis juste en train de dire que dans un contexte temps-réel, ce n'est pas la solution à tous les problèmes.
 
Et que oui on va vers un rendu hybride, mais suis pas sûr qu'un asic totalement dédié avec un choix d'implémentation d'indexation spatiale fixe soit la solution.
L’intérêt des rasterizers actuel c'est qu'ils ont de la souplesse.  
 
Sur un raytracer à indexation fixe tu imposes des restrictions à la scène.
 


 
Je présume que tu parles de généralités sur le ray tracing mais que tu ne t'es pas penché en détail sur ce que fait Imagination ? Qui a parlé d'ASIC totalement dédié ? :o Le GR6500 c'est avant tout un rasteriser classique mais avec quelques blocs et buffers spécifiques pour traiter efficacement le RT. Ce qu'ils visent pour le temps réel ce sont des rendus hybrides, le GPU est capable d'exécuter les deux types de passes en concomitance et ils supportent plusieurs méthodes d'indexation même si il y a des restrictions.  
 
Et si Carmack a salué les efforts d'Imagination, ce n'est pas juste parce que c'est un fan des ombres dures :D  
 
http://blog.imgtec.com/multimedia/ [...] ame-engine
http://blog.imgtec.com/multimedia/ [...] hadow-maps

Reply

Marsh Posté le 22-01-2016 à 16:27:28   0  

Autant pour moi:  
 
J'ai crispé sur "ombres aux contours parfaits, ce que la rastérisation classique ne parvient pas à obtenir"
- ce qui est vrai (dû à la nature même d'une ShadowMap),  
- et faux car les ombres dures dans la réalité physiques sont rares, et une ombre dure est plus cheap qu'une ombre diffuse (surtout en ray-tracing, alors que ça peut être cheapos en rasterisation en jouant avec le kernel).
 
-----
 
Je pense toujours qu'il vaut mieux un modèle de programmation qui permette d'implémenter l'indexation soit-même, ou d'avoir un notion de stage/unitée fixe de lookup fortement fortement fortement programmable (pour couvrir le jeu indoor avec des pics de forte densité de triangles skinnés par m3=>voxel, comme le simu avec moteur de terrain loddé à mort sur 10km=>quadtree avec des proxy).
 
Mais j'aurai tendance à penser que la réponse d'AMD et nV à la question des renderers hybrides sera de flexibiliser la topologie interne.
 
Et donc utiliser "les mêmes transistors" pour par faire le lookup des triangles que pour les shaders (3d ou compute).
Ceci afin de ne pas régresser vers un modèle de prog style années 90, et ne pas vendre un GPU avec des transistors froids (c'est relatif ceci dit, les transistors utilisés pour flexibiliser peuvent bouffer autant qu'un stage/unité dediée qui resteraient tous aussi froid dans un cas comme dans l'autre).
 
Bref l'enfer est dans le détail, la rasterisation peut nécessiter une approche décomposée et contre-intuitive aux problèmes de rendu, le ray-tracing semble magique mais pose bien des problèmes d'efficacité et est trop souvent présenté façon gnome voleur de slip (on part du pixel et hoooop magie on a le triangle) ce qui fait le point chaud du lookup est ignoré par les passionnés non programmeurs.
 
Maintenant à voir comment ça va évoluer.
 
L'initiative est louable. nV avait clamé y'a pas longtemps s'attaquer à l'illumination globale, donc si ça se trouve Pascal partira dans une direction plus ou moins similaire, no sé.


Message édité par bjone le 22-01-2016 à 17:45:45
Reply

Marsh Posté le 22-01-2016 à 16:53:36   0  

Par contre qu'on soit bien d'accord : oui c'est belle tentative d'innovation de rupture de la part d'imagination, et c'est clairement à suivre.
 
Suivant le modèle de programmation, ça peut être top moumoute ou relou (si la scène est stockée de manière monolithique).

Reply

Marsh Posté le 22-01-2016 à 17:03:34   0  

J'ai une petite question. Etant un utilisateur fréquent du logiciel de raytracing POVRay est-ce que la technologie de Imagination peut aider à accélérer le rendu d'une scène avec POVRay sachant que dans la documentation de ce dernier il est bien expliqué que les GPU AMD et Nvidia n'aident pas à faire le rendu plus rapidement et que c'est bien le CPU (fréquence et nombre de coeurs) qui agit sur la vitesse de rendu ?


Message édité par Warren79 le 22-01-2016 à 17:04:18
Reply

Marsh Posté le 22-01-2016 à 17:32:17   0  

Sans renderer spécifique, ça ne peut rien accélérer. Après ce qu'a fait Imagination avec la première démo citée c'est un peu ce que fait Nvidia avec Iray, même si leur renderer est probablement limité à faire tourner une démo simple dans l'état actuel des choses.

Reply

Marsh Posté le 22-01-2016 à 18:02:13   0  

tridam a écrit :

Sans renderer spécifique, ça ne peut rien accélérer. Après ce qu'a fait Imagination avec la première démo citée c'est un peu ce que fait Nvidia avec Iray, même si leur renderer est probablement limité à faire tourner une démo simple dans l'état actuel des choses.


 
C'est encore embryonnaire donc (les projets logiciels autour de ce matériel). En fait je pensais à la chose suivante (par exemple) : dans povray, l'objet sphere{centre, rayon} restera une vraie sphère quoi qu'il arrive (zoom fort sur les contour courbé et pas des triangles) dans le rendu. Dans Blender on a des facettes (sphère normale) ou des triangles (si "icosphère" ) et des artefacts comme smooth pour les lisser. Dans povray on peut même insérer des équations de volumes mathématiques on spécifiant un espace restreint ce qui explique peut-être pourquoi (je n'en suis pas sûr à 100%) le calcul des triangles des unités de calcul des GPU ne suffit pas. Et comme certains rendus de povray peuvent durer plusieurs jours ce qu'a fait Imagination m'a interpellé. Il y a eu le projet d' Intel "Knights Landing" dans ce même sens, mais j'ai oublié une bonne partie de ce j'avais lu à ce propos.


Message édité par Warren79 le 22-01-2016 à 18:03:14
Reply

Marsh Posté le 22-01-2016 à 18:15:53   0  

Le raytracing permet avant tout de produire des images très réalistes. Même si c'est lourd, au vu de l'efficacité énergétique de leur solution, il est possible qu'ils trouvent une clientèle qu'ils ne visent peut-être pas actuellement : tout ce qui touche au pré-rendu (démonstrations, cinématiques, films d'animations, effets spéciaux...).

Reply

Marsh Posté le 22-01-2016 à 21:23:21   0  

De mémoire :
-La Sega DreamCast avait déjà un PowerVR.
-Unity (qui intègre donc le ray-tracing) est dans le GDK fourni par Nintendo pour ses consoles

Reply

Marsh Posté le 23-01-2016 à 00:47:45   0  

Kam7r a écrit :

omagad le retour de powerVR... y'a qu'a espérer que ce soit mieux que les Rendition de la grande époque XD


 
heuuuu, tu as eu de quoi contre les rendition? j'ai eu une diamond stealth 3d rendition verite qui était plutôt TRÈS bon à l'époque et VRAIMENT pas cher...  
En gros, sur une config un peu vieillotte, pour 50$ tu avais 100x mieux qu'un s3 virge/trio, les trident, ati m64 ou rage 3d de l'époque qui avaient souvent les sockets de mémoires vides!...
les renditions avait un direct 3d et un opengl jouable (drivers simple malheureusement et pas très optimisé, je crois que c'est ça qui blesse)
 
Avec du ''vrai 3d'', fallait voir le jeu shogo en D3d... c'était impressionnant! En plus, elle avait une très bonne puissance en 2d (scrolling, refresh rate, résolution, en lecture video. C'était une excellent carte 2d performante pour le voodoo2!
 
Je viens de lire au sujet du rendition, ce chip, ils ont eu un sacré retard ayant pour cause d'un bug. J'oserais même imaginer qu'elle aurait pu changer l'histoire informatique si elle était mise en vente beaucoup avant... (avant le riva128, entre autre)
 
C'est sur que si tu t'es procuré/essayé cette carte à l'époque 3dfx voodoo2, riva128/tnt... mais encore une fois, pour +-50$ c'était un très bon deal!  
Faudrait pas croire qu'une riva 128 c'était si bon que cela pour le prix! nous ne pouvions pas tous nous payer ça, LOL!
(encor une fois, les drivers... nvidia a gagné)

Reply

Marsh Posté le 23-01-2016 à 01:39:22   0  

Pouvoir toi refaire en ça français mieux ?

Reply

Marsh Posté le 27-01-2016 à 19:21:40   0  

Mouais, moi je crois plus envers le raytracing temps réel sur cloud - le coût matériel est nul. http://www.immersion-engine.com/ ou Octane Renderer font des trucs dans ce sens

Reply

Marsh Posté le 28-01-2016 à 10:35:28   0  

Disons qu'en utilisation pro, CAO, architecture, etc... y'a un marché de niche.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed