[HFR] Actu : GDC: D3D12: Une guerre des specs en vue ?

Actu : GDC: D3D12: Une guerre des specs en vue ? [HFR] - HFR - Hardware

Marsh Posté le 16-03-2015 à 06:05:02   0  

Comme nous l'expliquions il y a peu, Microsoft a dévoilé lors d'une session de la GDC les 2 nouveaux niveaux de fonctionnalités de Direct3D 12 : 12_0 et 12_1. ...
Lire la suite ...

Reply

Marsh Posté le 16-03-2015 à 06:05:02   

Reply

Marsh Posté le 16-03-2015 à 12:19:37   0  

C'est très confus pour moi. Pourquoi est-ce que l'on est obligé de faire un segmentation sur 2 axes? Si les tiers sont fait pour utilisation des ressources génériques, alors les fonctionnalités 12_0 et 12_1 - ce sont des unités spécifiques, des commandes en langage machine supportés par le GPU?  
Est-ce que vous pouvez m'éclairer un peu sur ces sujets?

Reply

Marsh Posté le 16-03-2015 à 13:14:30   0  

Les feature levels sont juste des "packages" des différents niveaux de fonctionnalités pris individuellement, un peu comme à l'époque de DX9...
 
3 révisions successives de l'API sous le même nom, avec notamment le shader model qui a changé. Ici a priori c'est la même chose, ces limitations concernant bien les shaders.
 
Je serais curieux de voir où on en est de la gestion des algos récursifs d'ailleurs...

Reply

Marsh Posté le 16-03-2015 à 13:25:28   0  

Quel sera l'impact réel de toutes ces divisions ? Certains jeux pourront fonctionner sur certains gpu et d'autres non , ou les performances seront moindres ?

Reply

Marsh Posté le 16-03-2015 à 13:47:55   0  

ça sent l'anguille sous roche !

Reply

Marsh Posté le 16-03-2015 à 13:52:45   0  

BlackWaves a écrit :

Quel sera l'impact réel de toutes ces divisions ? Certains jeux pourront fonctionner sur certains gpu et d'autres non , ou les performances seront moindres ?


 
 
fonction désactivé et/ou performance moindre, mais généralement c'est juste environnement moins beau, objet moins complexe et destructibilité plus faible voir pas de destructibilité pour certains objet, collisions moins bien gérer et moins réaliste, nombre d'objet afficher plus faible sur la même scène.

Reply

Marsh Posté le 16-03-2015 à 14:00:28   0  

ottilienne a écrit :

ça sent l'anguille sous roche !


 
 
 [:cbrs]  
mamouth sous gravillions!!!
 
ou
 
HR 5171( c'est une étoile géante) sous neutronos...!!!!
 
 

Reply

Marsh Posté le 16-03-2015 à 14:28:24   0  

Après faut voir ce que ça procure objectivement.  
Par exemple certains jeux ont une spécialité "PC portable" qui permet d'avoir un jeu moins beau mais plus performant.  
Peut être que ce direct X. On aura comme d'hab faible à Ultra mais aussi Ultra faible pour les config sans GPU dédié. Ca va permettre a tout le monde de jouer sur les derniers hits.  
Maintenant si il n'apporte rien de plus je peux comprendre la frustration de certains.

Reply

Marsh Posté le 16-03-2015 à 15:55:20   1  

Mais comment Nvidia a pu sortir une carte graphique soit disant full compatible DX12 sans vraiment l'être ... en même temps c'est pas comme si ils nous avaient déjà fait le coup avec DX11.1 ...
 
La différence est qu'ici DX12 est encore en dev ce qui aurait du nous alerter ...
 
Mais quand même c'est contreproductif tout cela non ? Quel intêret d'avoir une API unique et une segmentation par Tier ?
 
Résultat c'est bien parti pour ne pas pouvoir tout avoir même en payant le prix très fort ... la frustration doit faire parti du cahier du charge ...


Message édité par Triple-Nax le 16-03-2015 à 16:28:34
Reply

Marsh Posté le 16-03-2015 à 17:14:28   0  

Je ne pense pas qu'il faille voir le support du Resource Binding Tier 2 "seulement" par Nvidia comme un problème pour les GeForce. C'est probablement plutôt une réussite de la part de Nvidia d'avoir pu caler ainsi dans les specs un mode optimal pour ses GPU, qui deviendra de facto le standard principal.

Reply

Marsh Posté le 16-03-2015 à 17:14:28   

Reply

Marsh Posté le 16-03-2015 à 17:22:12   0  

Gigathlon a écrit :

Les feature levels sont juste des "packages" des différents niveaux de fonctionnalités pris individuellement,...


 
Oui, mais ce que je voulais savoir, c'est comment est-ce que l'on mange ces fonctionnalités? C'est du hard, du soft, de la micro-instruction / microcode?  
 
Je reformule, c'est quoi les fonctionnalités, lorsque l'on parle du GPU?
Du coups, les tiers, c'est aussi des fonctionnalités, non?

Reply

Marsh Posté le 16-03-2015 à 17:36:17   0  

mon avis pour les Radeon c'est du Hard en majeur partie et du Soft via les Driver car les GPU sont hautement programmable via les ACE.

Reply

Marsh Posté le 16-03-2015 à 21:49:12   0  

Il y a un topic intéressant à ce sujet sur anandtech: http://forums.anandtech.com/showthread.php?t=2422223


Message édité par PowerMarcel le 16-03-2015 à 22:15:49
Reply

Marsh Posté le 17-03-2015 à 09:04:36   0  

lapin a écrit :

mon avis pour les Radeon c'est du Hard en majeur partie et du Soft via les Driver car les GPU sont hautement programmable via les ACE.


Ok, merci

Reply

Marsh Posté le 17-03-2015 à 14:20:45   0  

artemz a écrit :

Je reformule, c'est quoi les fonctionnalités, lorsque l'on parle du GPU?
Du coups, les tiers, c'est aussi des fonctionnalités, non?


Les feature levels déterminent les fonctionnalités disponibles (a priori principalement des algorithmes).
Les tiers sont plutôt des niveaux de capacités techniques (donc dépendant j'imagine de l'architecture de la CG).
 
Une question à se poser, c'est est-ce qu'après des mises à jours de drivers, une carte pourrait passer d'un feature level au suivant?

Reply

Marsh Posté le 17-03-2015 à 14:33:49   1  

artemz a écrit :

Oui, mais ce que je voulais savoir, c'est comment est-ce que l'on mange ces fonctionnalités? C'est du hard, du soft, de la micro-instruction / microcode?  
 
Je reformule, c'est quoi les fonctionnalités, lorsque l'on parle du GPU?
Du coups, les tiers, c'est aussi des fonctionnalités, non?


Cherche les articles sur DX9 ou DX10, tu auras un bon aperçu... :o
 
DX12 a surtout l'air de revenir aux options que DX10 avait mis au placard, tout simplement.

Reply

Marsh Posté le 11-04-2015 à 10:12:15   0  

certains fonction peuvent être émuler par le GPU et le driver, bon il faut peut être utiliser les ACE ou paramétrer différemment le Geometry shader.
 
Conservative Rasterization
 
https://developer.nvidia.com/conten [...] terization
 
après le soucis c'est est ce qu'AMD va modifier les driver des R9 290 pour le supporter
 
pour le ROV c'est un technologie Intel nommé PixelSync et qui est une extension non officiel dans OpenGL et il semblerait que les Radeon soit compatible PixelSync par contre pour le moment c'est supporter mais extrêmement lent d'après les dires de certains ça prend plus de 350 ms lors d'un simple teste donc pas exploitable en l'état sans modification des drivers.

Reply

Marsh Posté le 11-04-2015 à 13:39:57   0  

"Il semblerait"? Tu pourrais au moins faire l'effort de remonter jusqu'au lancement des HD5k, si tu ne t'en souviens pas...

Reply

Marsh Posté le 11-04-2015 à 13:54:04   0  

non je ne m'en souvient pas, vue que j'ai eut une 3870 et une 6850.
 
tout se que je sais c'est que les Radeon même la 6850 peuvent executer des programme en Illimination globale on le voit dans la demo LEO de AMD.

Reply

Marsh Posté le 11-04-2015 à 15:26:08   0  

L'illumination globale étant une forme de raytracing/raycasting, encore heureux que les Evergreen puissent en faire : ils en avaient fait la démo sur des GPU DX9, sauf qu'à l'époque il n'y avait pas la puissance de calcul suffisante pour l'exploiter en rendu temps-réel complexe, du coup les bypass qui ont été mis en place récemment n'avaient même pas lieu d'être.


Message édité par Gigathlon le 11-04-2015 à 15:26:36
Reply

Marsh Posté le 11-04-2015 à 16:09:46   0  

oui c'est lent en 6850, par contre sur un 6970 ça devrait être suffisamment fluide, mais à l'origine la démo LEO est sorti pour les 7900.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed