[HFR] Actu : GTC: Nvidia annonce Iray VR et Iray VR Lite

Actu : GTC: Nvidia annonce Iray VR et Iray VR Lite [HFR] - HFR - Hardware

Marsh Posté le 11-04-2016 à 10:21:12   2  

 

Iray, le moteur de rendu interactif photoréaliste de Nvidia s'apprête à passer à la VR. Rendre interactif un rendu à base physique de type lancer de rayons ...
Lire la suite ...

Reply

Marsh Posté le 11-04-2016 à 10:21:12   

Reply

Marsh Posté le 11-04-2016 à 11:08:55   3  

Tous ces efforts de Nvidia pour ne pas parler de la sortie des Pascal gamer :o

Reply

Marsh Posté le 11-04-2016 à 11:25:00   4  

Et toutes ces annonces ne font pas vraiment rêver, ça sent l'occupation de terrain avec des bouts de chandelles

Reply

Marsh Posté le 11-04-2016 à 11:53:52   8  

Occupation de terrain... par rapport au concret d'AMD? :D

 

Faut arrêter la mauvaise foi... Avec Iray Nvidia fait un poil plus que de l'occupation de terrain...


Message édité par tridam le 11-04-2016 à 12:01:30
Reply

Marsh Posté le 11-04-2016 à 11:57:31   0  

Ça se rapproche de ce qu'a montrer Imagination déjà non ?
Édit : HS : D'après que AMD ne serait pas dans la liste des participant au Computex :pfff:

Message cité 1 fois
Message édité par Zurkum le 11-04-2016 à 12:01:13
Reply

Marsh Posté le 11-04-2016 à 13:07:21   6  

AMD a un stand à l'extérieur du site principal du Computex.
Attention Computex c'est Taiwan. AMD ne produira plus rien de nouveau à Taiwan. Ce serait pas anormal qu'ils soient absents, surtout en tant d'économie, mais ce n'est pas le cas.
Pour info AMD n'a actuellement rien qui se vend bien, alors qu'ils ont eu de grosses méventes en 2015. Tous ses produits attendent la nouvelle gamme. Et même s'ils s'avèrent meilleurs sous DX12 que leur concurrent Nvidia, Nvidia a réussi une grande rafle en 2015 en misant tout sur Dx11 et sur une stratégie propriétaire, et un gros investissement publicitaire alors qu'AMD n'a rien entrepris, et sur 2016 tout le monde attend les nouveaux produits 14/16nm de leur part, avec Nvidia qui a constitué des réserves en 2015.
 

Zurkum a écrit :

Ça se rapproche de ce qu'a montrer Imagination déjà non ?  
Édit : HS : D'après que AMD ne serait pas dans la liste des participant au Computex :pfff:


 
Ce n'est absolument de l'occupation de terrain passive.
Il s'agit de s'approprier des marchés existants (Iray et Mental ray sont issus d'un rachat d'entreprise de software qui fournissait déjà les ténors de la CAO et rendu d'image) par une stratégie imposant une solution propriétaire.
Le problème c'est que là où ces grosses entreprises faisaient confiance à un tiers indépendant, ils sont devenus dépendants de Nvidia et leur carte. Ce que leur propose alors Nvidia c'est de la plus value d'image. Ce produit pointu à l'époque (mentalray) coûtait cher. Il est fort probable que Nvidia négocie la gratuité contre un engagement sans faille envers leur matériel. Autodesk et les autres ténors construisent ses logiciels avec une compatibilité avec Nvidia dès les départ (à AMD de faire le boulot inverse pour être certifié).
Dans le cas d'un produit de rendu (DAZ studio) gratuit qui fonctionne sur la vente d'extensions leur leur site, et qui était compatible avec un tas de moteurs de rendu, Nvidia a payé le développeur pour intégrer exclusivement le noyau Iray, demandant désormais aux autres moteurs de s'adapter aux évolutions imposées par Nvidia au logiciel.
Il faut savoir que DAZ Studio avec Luxrender est une des bases qui servaient à démontrer à quel point les cartes Nvidia se faisaient laminer par AMD en performances de calcul brutes.
Il apparait en plus que ce moteur Iray ne fait pas des merveilles (vitesse, qualité) mais c'est LE STANDARD que tout bon artiste qui a travaillé sur Maya ou 3DSmax connaît...
 
Pour info, si tout le monde, dans ce domaine, connaît Mentalray et Iray, mais tout ce monde préfère Vray, plus rapide et souple (qui coûte une prix insignifiant à ajouter en plus) !!! Et c'est le standard de ceux qui veulent faire mieux. Vray RT existe depuis un moment... donc Iray VR ne fait que rattraper. Or Vray tourne désormais très bien sous OpenCL...
 
Autre chose : ne pas se faire attraper par le terme VR (en vogue en ce moment pour autre chose) utilisé par Iray. Il s'agit bien du mode Real Time (rendu temps réel) de Vray et d'autres moteurs de rendu.
On reconnaît bien là le côté opportuniste purement commercial de Nvidia...

Message cité 1 fois
Message édité par cocto81 le 11-04-2016 à 13:08:35
Reply

Marsh Posté le 11-04-2016 à 13:08:37   0  

C'est comme si nvidia avait été piqué au vif avec Mantle (qui devint DX12), ils sont devenus super actifs ces derniers temps en proposant un max d'outils pour faciliter (et influencer) le futur du jeu vidéo sur pc. J'espère que dans les mois avenir AMD proposera un peu plus que du GCN qui consomme peu parce que là ça risque d'être léger par rapport à tout ce que nvidia mets en place.

Reply

Marsh Posté le 11-04-2016 à 13:30:55   3  

sasuke87 a écrit :

C'est comme si nvidia avait été piqué au vif avec Mantle (qui devint DX12), ils sont devenus super actifs ces derniers temps en proposant un max d'outils pour faciliter (et influencer) le futur du jeu vidéo sur pc. J'espère que dans les mois avenir AMD proposera un peu plus que du GCN qui consomme peu parce que là ça risque d'être léger par rapport à tout ce que nvidia mets en place.


Normalement suffisant pour AMD. Les outils de développement sont standard.
La stratégie Nvidia est toujours la même. Ils font du standard si absolument nécessaire (concurrents le font), mais diminuent ses performances par rapport à la solution propriétaire (sauf si concurrents très agressifs et perte de marché auquel cas pas le choix). Puis dans leur stratégie propriétaire ils essaient de rendre cette exclusivité très chère.
Le procédé part du principe qu'un professionnel qui achète un certain prix son matériel va le signifier dans son contrat ou sa publicité, et faire valoir un prix du service plus élevé, en accord avec son matériel. Peu importe les performances du matériel : le surcoût rapportera plus que l'investissement à la longue (censément plus cher donc plus puisant, plus sophistiqué donc nécessitant un formation plus pointue ... tout un tas d'idées reçues ou admises dans le monde professionnel). Donc en gros, plus les produits Nvidia sont propriétaires et chers, plus le professionnel est content, les perfs ne demandant qu'à être dans le coup (pas forcément les plus élevées mais pas totalement nulles non plus).
Maintenant quand une entreprise va travailler pour elle-même, elle n'aura aucun intérêt à procéder ainsi... mais dans le monde du rendu 3D il y a à peu près 100% de demande externe et quasiment rien de fait en interne.
Bien sûr les dev sur Cuda procèdent de la même manière. Il développement sur Cuda donc Nvidia... donc faut payer plus et même les boîtes de jeu sont aspirés dans cette spirale, parce que les dev internes qui ont recours à d'autres dev vont protéger leur coeur de métier pour le rendre plus rémunérateur ou juste parce que "les copains" qu'ils vont faire bosser vont être mieux payés s'ils montrer qu'ils fonctionnent dans un environnement qui demande plus d'investissements...
 
Donc quand on monte les prix sur le marché pro, on ne va pas forcément perdre celui-ci, et quand on casse les prix, tout ce qu'on risque c'est que les professionnels boudent (avec en plus une envie de revanche contre la marque qui a dévalué la cote de leur engagement donc qui les a trompé en tant que partenaire d'image de marque "financière" ).


Message édité par cocto81 le 11-04-2016 à 13:36:32
Reply

Marsh Posté le 11-04-2016 à 14:05:54   0  

sasuke87 a écrit :

C'est comme si nvidia avait été piqué au vif avec Mantle (qui devint DX12), ils sont devenus super actifs ces derniers temps en proposant un max d'outils pour faciliter (et influencer) le futur du jeu vidéo sur pc. J'espère que dans les mois avenir AMD proposera un peu plus que du GCN qui consomme peu parce que là ça risque d'être léger par rapport à tout ce que nvidia mets en place.


"Tout ce que nvidia met en place", c'est à dire ? Les dernières technologies annoncées concernaient surtout le monde pro, j'ai loupé quelque chose de spécial ?

Reply

Marsh Posté le 11-04-2016 à 14:23:14   7  

Le truc, c'est que quand nVidia met quelque chose en place, ils se donnent les moyens de réussir et les mettent en oeuvre afin de de donner un maximum de chances au produit (ressources software, SDK, collaborateurs en mission...)
Chez AMD, ils parlent beaucoup mais agissent peu. La plupart du temps, ils attendent que les autres fassent le travail à leur place avec les résultats qu'on connait tous.

Reply

Marsh Posté le 11-04-2016 à 14:23:14   

Reply

Marsh Posté le 11-04-2016 à 14:35:31   3  

Oui les moyens surtout ceux de l'acheteur qui va payer une fortune une solution limité, gourmande et pleine de bug...

Reply

Marsh Posté le 11-04-2016 à 15:00:53   3  

lulu1980 a écrit :

Oui les moyens surtout ceux de l'acheteur qui va payer une fortune une solution limité, gourmande et pleine de bug...


Tu parles de AMD ou de nVidia ? :D

Reply

Marsh Posté le 11-04-2016 à 15:25:16   2  

cocto81 a écrit :


 
 
Autre chose : ne pas se faire attraper par le terme VR (en vogue en ce moment pour autre chose) utilisé par Iray. Il s'agit bien du mode Real Time (rendu temps réel) de Vray et d'autres moteurs de rendu.
On reconnaît bien là le côté opportuniste purement commercial de Nvidia...


 
Non, tu as mal lu ou mal compris... Iray VR c'est une version d'Iray prévue pour la réalité virtuelle avec un précalcul de nombreuses light probes. L'équivalent de Vray RT c'est Iray. Iray VR c'est autre chose.

Message cité 1 fois
Message édité par tridam le 11-04-2016 à 15:27:05
Reply

Marsh Posté le 11-04-2016 à 15:34:11   3  

drey19 a écrit :


 
Ça sort d’où que Mantle est devenu Dx12 ?


Bah AMD et Crosoft ont travaillé sur DX12 à partir de Mantle

Reply

Marsh Posté le 11-04-2016 à 16:19:36   1  

Oui et non parce que Iray VR en temps réel n'a pas trop de sens, ce serait plus gourmand. En fait c'est une question que j'ai posée à Nvidia, mais je n'ai pas eu de réponse : à partir de quelle puissance de calcul est-ce qu'il serait plus intéressant de calculer une image pour chaque oeil à 90 fps plutôt que de précalculer des light probes.

Reply

Marsh Posté le 11-04-2016 à 16:30:34   2  

Oui oui mais ce que je veux dire c'est que ça se fera probablement via un rendu Iray classique par oeil et non via Iray VR qui serait plus gourmand pour ce type d'usage. Ce qui ne change rien au fait que ce ne sera pas réaliste avant longtemps.

Reply

Marsh Posté le 11-04-2016 à 19:42:27   2  

Ce n'est surtout pas le sujet :o

Reply

Marsh Posté le 11-04-2016 à 23:42:42   0  

Invite_Surprise a écrit :

Le truc, c'est que quand nVidia met quelque chose en place, ils se donnent les moyens de réussir et les mettent en oeuvre afin de de donner un maximum de chances au produit (ressources software, SDK, collaborateurs en mission...)
Chez AMD, ils parlent beaucoup mais agissent peu. La plupart du temps, ils attendent que les autres fassent le travail à leur place avec les résultats qu'on connait tous.


Mais bien sûr, la mauvaise foi habituelle du bon fanboy intel/vidia
Ils ont attendu nvidia pour la hbm et mantle :)


Message édité par grosnabot le 11-04-2016 à 23:46:39
Reply

Marsh Posté le 11-04-2016 à 23:45:00   0  

drey19 a écrit :


 
Ça sort d'où que Mantle est devenu Dx12 ?


drey19 a écrit :


C'est quoi ta source ?
 
Bref tu confonds avec vulkan.


 
Y a suffisamment de dev qui ont montré des diff de la doc direct3d 12/vulkan qui est un gros copier coller de la doc mantle(juste quelques mots dans les phrases qui changent :D).


Message édité par grosnabot le 11-04-2016 à 23:45:42
Reply

Marsh Posté le 12-04-2016 à 02:12:51   2  

drey19 a écrit :


 
C'est quoi ta source ?
 
Bref tu confonds avec vulkan.


Mais non.
 
M$ n'aurait jamais sorti DX12 tel qu'il est s'il n'y avait pas eu Mantle, dont ils se sont inspiré...
On va pas refaire l'histoire tel qu'elle s'est passé sous nos yeux depuis moins de 2 ans.
Mais Vulkan c'est pareil, juste appliqué au std OpenGL.

tridam a écrit :


 
Non, tu as mal lu ou mal compris... Iray VR c'est une version d'Iray prévue pour la réalité virtuelle avec un précalcul de nombreuses light probes. L'équivalent de Vray RT c'est Iray. Iray VR c'est autre chose.


Effectivement, j'ai mal lu, mais c'est rien de tout ça. C'est un melting-pot de tout.
 
Iray ne faisait pas de RT, du moins dans mes scènes complexes ça en était pas (ça commence à rendre quand j'arrête mon déplacement). Ils ont donc ajouté le RT (si j'ai bien compris) et en profitent pour faire des rendus VR rapides. C'est bien, ça coûte pas grand chose (on rend 2 vues en parallèle). La grosse nouveauté c'est quand même le RT.
A noter que Vray est plutôt un concurrent de Mental Ray, pas d'iRay (rendu qui se veut réaliste).
 
En fait il y avait un mode RT sur Iray (ou Mental ray - car fournis ensemble) mais pas réaliste... et le rendu Iray pur est trop lent pour s'appeler RT (là encore avec ma config et les scènes complexes que j'utilise...).
En fait on a un rendu de type RT mais esquissé dynamique, puis un rendu final Iray qui se fait une fois fixé dans la fenêtre classique de rendu... du moins sous 3DSMax.
Ils ont peut-être optimisé et combiné les 2.
 
Actuellement, à rendu égal Vray laisse Iray sur place (pour la même scène complexe)... bon mais j'ai pas testé sur la dernière version.


Message édité par cocto81 le 12-04-2016 à 02:48:06
Reply

Marsh Posté le 12-04-2016 à 02:31:51   2  

ravenloft a écrit :


Je comprends mais je parlais d'avoir une telle qualité en jeu un jour et ça risque de prendre du temps pour arriver.


En fait aucun intérêt.
 
En jeu, le rendu physique n'a aucun intérêt. Vaut mieux avoir tout le temps une image impéc et à fps soutenus même si elle est fausse.
A supposer que graphiquement on n'a pas la puissance ou même si avec une config surpuissante on y parvient, à un moment donné un rendu trop complexe qui lague, sera affiché comment ? par gros carrés ? Par nuages de points ?... bref, c'est pas la bonne option.
 
On est très très loin des perfs nécessaires avec du matériel desktop même multicartes.
 
Ca a un sens dans des simulations professionnelles (une config de type ferme derrière).


Message édité par cocto81 le 12-04-2016 à 02:37:25
Reply

Marsh Posté le 12-04-2016 à 14:08:18   3  

C'est bientôt fini ce HS qui n'a d'autre intérêt que de pourrir un topic de plus avec la même discussion de sourds ?

Reply

Marsh Posté le 13-04-2016 à 16:25:22   0  

ravenloft a écrit :


 :heink:  
C'est une blague? :??:


 
Suffit de réfléchir un peu.
Le rendu jeu est déjà largement réaliste. 99% des jeux préfèrent avoir des effets exagérés plutôt que du réalisme.
Un image animée n'est pas perçues dans les détails par l'oeil... bref, le type de rendu actuel, pseudo-réaliste à extravagant, est largement suffisant. En faire un peu plus c'est toujours mieux.
 
Le rendu réaliste suppose des résultats issus de lancés de rayons qui convienne à la définition de l'image. Le parcours de ces rayons doit être réaliste physiquement (en virgule flottante ça rigole pas) sans exception ou alors tout devient mauvais ! Quand le hardware n'a pas la puissance nécessaire, il lance moins de rayons, et l'image est plus pourrie. On peut aussi enlever des effets physiques (à prévoir avant le lancer de rayons) mais alors on aura un résultat clairement non réaliste ou uniquement réaliste suivant les critères physiques employés : ça donnera un moins bon résultat que le rendu pseudo-réalistes des jeux actuels mais loin actuellement du temps réel.
La complexité d'une scène ne sera donc pas aménageable et quantifiable dans le rendu. On doit tout faire ou rien. Lancer moins de rayons n'est pas une alternative, car le résultat est vite pitoyable...
Bref, un rendu réaliste physiquement n'est pas une alternative d'avenir pour les jeux.
Maintenant on peut aménager les rendus rapides pour qu'ils bénéficient de la qualité de rendu de type réaliste au mieux possible, voire une partie du rendu utilisant des lancés de rayons avec des GPU plus performants, faits pour... mon avis c'est que ça n'en vaut pas la chandelle au vu des perfs actuelles des GPU. Bien sûr avec un ferme de 10 000 GPU GP100 on devrait obtenir de choses intéressantes... mais si on a connu par le passé un progrès où un GPU récent valait 10 000 GPU anciens (et peut-être qu'il en faudrait plus), pour l'instant les perspectives de progrès sont très sombres.
 
Pour rendre un milieu urbain autour d'un bâtiment , de façon précise (on voit même les poignées des fenêtres par transparence) et chiadée avec de la végétation, pour une définition UHD, il faut faire tourner plusieurs jours un Titan X sur Iray, et en regardant bien à pas mettre des choses inutiles et invisibles, peu remarquables dans le modèle 3D. Le même sur Vray (non réaliste) avec des différences insignifiantes dues à un bon paramétrage prend quelques heures. Les types qui m'ont montré ça sont des pros du rendu, qui ne font que ça...
 
De là à afficher nettement plus (genre Call of Duty) en image réaliste et en temps réel, il faudra beaucoup beaucoup plus de puissance de calcul.


Message édité par cocto81 le 13-04-2016 à 16:26:51
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed