[Topic Officiel] Half-life 2 et les cg: infos, conseils, ..

Half-life 2 et les cg: infos, conseils, .. [Topic Officiel] - Carte graphique - Hardware

Marsh Posté le 11-09-2003 à 03:26:57    

Voila, Half-Life 2 va être à coup sur un énorme succès et j'aimerais que ce topic est pour but de donner les premières infos officielles sur half-life 2 qui ont rappport avec les carte graphiques puis à la sortie du jeux donner des conseils sur les options à cocher avec tel et tel cg, les explications sur les diférents réglages.... Merci d'éviter toutes guerre nvidia/ati mais au contraire se réserver à des informations techniques ou des conseils.
 
Informations du 11/09/2003 :
 
Tout d'abord, des tests de DirectX 9.0 se sont révélés être plus que concluants ! Un article a été publié à ce propos : Yahoo.com.
Parmis les avantages principaux que l'API DirectX 9.0 apporte à Half-Life 2, la vitesse est augmentée et les graphismes ont un bien meilleur rendu, de plus les textures en bump des personnages rendent la lumière plus nuancée et les ombres plus légéres.
La principale nouveauté de DirectX 9.0, le High-Level Shader Language (HLSL), permet d'obtenir un spectre complet de couleurs pour les graphismes, vidéos, animations 3D et des capacités audios augmentées.
 
De plus, le site AnandTech publie un article dont voici les conclusions :
 
ATI se trouve nettement en tête par rapport à NVidia en ce qui concerne les performances graphiques sous Half-Life 2.
 
La carte ATI Radeon 9800 Pro fonctionne à merveille avec Half-Life 2, donnant du 60 FPS continue( en 1280x1024x32 full options )- La 5900 Ultra est remmarquablement plus lente avec une configuration optimisée.
 
La carte ATI 9600 Pro fonctionne très bien, c'est une bonne concurrente de la 5900 Ultra sur ce jeux.
 
Valve recommande d'utiliser les 5200 FX et 5600 FX sous DirectX 8, afin d'avoir un frame rate convenable.
 
Valve insiste sur le fait qu'ils n'ont pas favorisé un constructeur plutôt qu'un autre. Bien que Valve a permis à ATI de fournir Half-Life 2 avec ses prochaines cartes graphiques et que le prochain évenement où Valve sera présent (à Alcatraz) est sponsorisé par ATI. Mais il y a encore 1 an, hl2 était developpé sur des cg nvidia...
 
De plus, le dernier tomb raider, pourtant compilé en cg ( language graphique de nvidia ), a aussi tourné à l'avantage des ati mais il est nécessaire d'attendre la sortie d'autre jeux directx9 et peut-être d'aquamark2003 pr en tiré de vrai conclusions ( en clair, savoir si oui ou non, les cartes nvidia sont vraiment distancé clairement sur les jeux directx9 )
 
En tout cas, tout cela ne ferait que décrédibiliser totalement 3dmark2003 vu qu'il semble pour le moment ne pas avoir donné de résultats représentatifs des cartes directx9 sur les jeux dx9.
 
Liens interessants :
 
http://www.gamersdepot.com/interviews/gabe/001.htm = interview de Gabe Newell sur l'utilisation du directx9, et tous ce qui est en rapport avec le hardwares pour half-life 2.
 
http://www.gamersdepot.com/hardwar [...] ks/002.htm = Tous les premiers benchmarks sur half-life 2
 
Liens de benchs :
 
http://www.gamersdepot.com/hardwar [...] up/002.htm
 
http://www.anandtech.com/video/sho [...] i=1863&p=1
 
Réponse de Nvidia pour le moment :
 
Tous ces benchmarks sont totalement invalide, ils faut attendre les detonator 50.xx
 
Réponse de Valve :
 
Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran.
 
Les vidéos de Half-Life 2 :
 
http://ftp.club-internet.fr/pub/ga [...] e2/videos/


Message édité par PlayTime le 12-09-2003 à 14:44:30
Reply

Marsh Posté le 11-09-2003 à 03:26:57   

Reply

Marsh Posté le 11-09-2003 à 03:41:20    

Tu as signes ton arret de mort avec se topic,debut des hostilites.....
 
5
4
3
2
1
 
 
 
GOOOOOOOOOOOOOOOOOOO   :lol:  
 
 
ps: half life 2 est pas encore sortis  :kaola:

Reply

Marsh Posté le 11-09-2003 à 04:16:52    

Cest le topic qui a le plus dinteret ici, pas les reponses car il ny a pas trop à discuter de ce topic pr linstant, cest juste des fais.
 
Par contre, à la sortie du hl2 benchmark, on pourra commencer à pas mal discuter

Reply

Marsh Posté le 11-09-2003 à 04:49:47    

La meilleur carte a l'heure actuelle pour HL2 nivo perf/prix
l'ati 9600 pro !
Tout est dans le topic unique half life 2 ; rubrique jeux !
Voila .
 
Ps : Et pas besoin de me dire que je suis un pro Ati ou je ne sais quoi lol , vous avez qu'a voir ma configue avant dire quoique se soit  :D .


Message édité par Jack_Power le 11-09-2003 à 04:54:24
Reply

Marsh Posté le 11-09-2003 à 13:26:41    

Jadore, je fais ce topic est quest que je vois, un mec qui refais un topic résultats des benchmarks...... Yen a vraiment qui sont pour la multiplication inutile des topics, cest dommage :(.
 
Si vous avez d'autres liens, hesité pas à me le dire, je mettrai à jour le topic.


Message édité par PlayTime le 11-09-2003 à 13:39:46
Reply

Marsh Posté le 11-09-2003 à 13:48:47    

A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible.
 
http://www.vtr-hardware.com/news/
 
Y'a pas à dire, l'honnêteté, chez nVIDIA, on connaît pas......... Sodomiser le consommateur à fond, ils aiment :/


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 13:54:15    

PlayTime a écrit :


En tout cas, tout cela ne ferait que décrédibiliser totalement 3dmark2003 vu qu'il semble pour le moment ne pas avoir donné de résultats représentatifs des cartes directx9 sur les jeux dx9.


T'es vraiment sur de toi ?
 
Pour info, en PS 2.0 a 3D Mark 2003 les 9800 s'en sortent egalement bien mieux que les FX 5900 ;) (enfin, ca depend de la version des detos  :whistle:)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 13:55:54    

Ou je voulais dire quil décridibiliserai 3dmark2003, cest plutot au vu du score final tres proches sur les 2 cartes graphiques alors qu'aperement, les ati sont assez largement devant en directx 9.

Reply

Marsh Posté le 11-09-2003 à 13:57:02    

Le score global a 3D Mark a jamais voulu rien dire. C'est pas nouveau a la version 2003 :D
 
Les tests theoriques de 3D Mark sont par contre plutot bon :)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 14:07:13    

Ernestor a écrit :


T'es vraiment sur de toi ?
 
Pour info, en PS 2.0 a 3D Mark 2003 les 9800 s'en sortent egalement bien mieux que les FX 5900 ;) (enfin, ca depend de la version des detos  :whistle:)


 
peut etre nvidia pourra t il corriger le tir avec les fx5950
mais vu le biveau d'integration des shader ds une carte ca me semble difficile
vivement les le gefx6000 ;)


---------------
Mourons pour des idées, d'accord, mais de mort lente, d'accord, mais de mort lente !
Reply

Marsh Posté le 11-09-2003 à 14:07:13   

Reply

Marsh Posté le 11-09-2003 à 14:26:11    

A mon avis, nvIDIA a voulu pèter plus haut que son cul. La campagne marketting du GFFX y'a un an était trop tapageuse pour être honnête. Et oui, c'est toute l'archi qui sera à revoir. Ou au minimum multimplier le nombre de pipelines. Mais quand on voit certains tests théoriques de PS 2.0 (même pas 2.0+) où une FX5900 Ultra traine 10x derrière uen R9800 Pro, on se pose des questions (drivers trichés ou pas, me souvient plus).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 14:43:53    

Moi ce qui me fait bien rire c'est ça:
 
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
 
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.
 
Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.  
 
Je veux pas dire, mais une conférence avec un bonhomme derrière un pupitre ATI qui démonte nvidia, ça fait pas très sérieux ...
 
http://www.tomshardware.com/techne [...] image1.jpg


Message édité par nicolas_b le 11-09-2003 à 14:48:35
Reply

Marsh Posté le 11-09-2003 à 14:50:53    

sur vtr hardware :
 
On apprend par exemple qu'en 1024*768, une Radeon 9800 Pro atteint 60 fps, la Radeon 9600 Pro atteint lui 49 fps, alors que du côté de nVidia, la GeforceFX 5900 Ultra n'obtient que 30 fps, la GeforceFX 5600 Ultra seulement 12 et moins de 10 pour la 5200 Ultra!  
 
tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.

Reply

Marsh Posté le 11-09-2003 à 14:51:14    

nicolas_b a écrit :


Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.


ATI a construit pour les R9X00 une architecture totalement adaptee a DX 9. nVidia a choisi une architecture alternative pour ses cartes.
 
Ce qui fait que :
- un jeu "purement" DX 9 est optimise par principe sur une ATI et marche moins bien sur une nVidia
- pour que ca marche (au mieux) aussi bien sur une FX, faut reecrire une partie du moteur de rendu specifique aux FX.
 
En conclusion, c'est pas de la faute a Valve si nVidia a pas choisi de coller a DX9 mais bien de la faute a nVidia.
Et on ne va pas non plus reprocher a Valve de suivre le standard DX 9 (surtout qu'en plus, ils ont fait un code-path specifique FX).
 
La situation est identique avec l'OpenGL ...


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 14:53:29    

steve2002 a écrit :

sur vtr hardware :
tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.


Trop gros ce troll, passera pas  [:ddr555]


Message édité par Ernestor le 11-09-2003 à 14:53:44

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 15:01:01    

Ernestor a écrit :


ATI a construit pour les R9X00 une architecture totalement adaptee a DX 9. nVidia a choisi une architecture alternative pour ses cartes.
 
Ce qui fait que :
- un jeu "purement" DX 9 est optimise par principe sur une ATI et marche moins bien sur une nVidia
- pour que ca marche (au mieux) aussi bien sur une FX, faut reecrire une partie du moteur de rendu specifique aux FX.
 
En conclusion, c'est pas de la faute a Valve si nVidia a pas choisi de coller a DX9 mais bien de la faute a nVidia.
Et on ne va pas non plus reprocher a Valve de suivre le standard DX 9 (surtout qu'en plus, ils ont fait un code-path specifique FX).
 
La situation est identique avec l'OpenGL ...


 
Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  
 
Maintenant quand je regarde du coté des constructeurs de carte graphique , il y en a deux qui disont se partagent le marché à 50% - 50%.
 
Je trouve ça un peu gonflé quand on sort un jeu de l'envergure de halflife qui doit etre un modèle de performance, d'optimisation, etant donné que le moteur fera tourné d'autres jeux futurs, d'annoncer que les cartes graphiques nvidia auront des resultats médiocres.
 
En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  
 
C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Message édité par nicolas_b le 11-09-2003 à 15:02:14
Reply

Marsh Posté le 11-09-2003 à 15:03:39    

nicolas_b a écrit :

Moi ce qui me fait bien rire c'est ça:
 
GD: Why DirectX9 over OpenGL 2.0?
Gabe: OpenGL 2.0 isn't as mature as DX9.
 
Valve a depuis toujours mené une politique de soft propriétaire, ils sont completement opposés au portage de leur jeu sous linux, contrairement à des jeux comme quake3 qui a été une veritable démonstration et reference technologique. Quake3 tirait parti de toutes les cartes graphiques, et était multiplateforme.
 
Quand je vois les benchs de halflife, je me dis que valve a clairement voulu mettre en avant les cartes ati en concevant un jeu optimisé directx9 pour ati.  
 
Je veux pas dire, mais une conférence avec un bonhomme derrière un pupitre ATI qui démonte nvidia, ça fait pas très sérieux ...
 
http://www.tomshardware.com/techne [...] image1.jpg


 
Demande A Zeross la situation pour les shaders en OpenGL, tun verras, c'est encore la jungle... d'où : oui, DX9 est plus mature, plus carré.  
 
Après, est-ce mieux ? Ben, on peut pas juger avec Doom3 qui utilise  les techs des GF256 (accélérées via shaders, certes sur plus récent, ais c'est tout).


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:04:05    

tout juste jouable??????????????????
Ca va pas non!!! 60 fps c'est excellent comme fluidité.
:hello:


Message édité par cyberfred le 11-09-2003 à 15:04:38
Reply

Marsh Posté le 11-09-2003 à 15:04:42    

faut pas être difficile

Reply

Marsh Posté le 11-09-2003 à 15:05:38    

nicolas_b a écrit :


 
Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  
 
Maintenant quand je regarde du coté des constructeurs de carte graphique , il y en a deux qui disont se partagent le marché à 50% - 50%.
 
Je trouve ça un peu gonflé quand on sort un jeu de l'envergure de halflife qui doit etre un modèle de performance, d'optimisation, etant donné que le moteur fera tourné d'autres jeux futurs, d'annoncer que les cartes graphiques nvidia auront des resultats médiocres.
 
En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  
 
C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...

Euh, les shaders, que ce soit sous DX ou OpengL, c'est pareil, c'est l'exposition et la syntaxe qui est différente....... Donc, ils auraient fait du PS 2.0 sous OpenGL, ça aurait été pareil. On a des démos tech qui nous l'ont montré, dont la fée nudiste de nVIDIA......


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:07:05    

steve2002 a écrit :

faut pas être difficile


 
Tous les jeux qui bousculent les standards de quaité sont dans ce cas :)


Message édité par MagiSim le 11-09-2003 à 15:07:48

---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:10:17    

MagiSim a écrit :

Euh, les shaders, que ce soit sous DX ou OpengL, c'est pareil, c'est l'exposition et la syntaxe qui est différente....... Donc, ils auraient fait du PS 2.0 sous OpenGL, ça aurait été pareil. On a des démos tech qui nous l'ont montré, dont la fée nudiste de nVIDIA......


 
Je pensais pas spécialement aux shaders, je pensais par exemple aux textures.

Reply

Marsh Posté le 11-09-2003 à 15:11:31    

Sauf qu'à la base, une unité de shading c'est quoi ? Un processeur qui va manipuler des textures...........


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:15:33    

nicolas_b a écrit :


Heu , je sais pas , je regarde autour de moi , et la seule chose que je vois c'est que Microsoft n'a jamais suivi de norme officiel en développement, et de parler de spécification microsoft c'est un non sens.  


C'est une API DX 9. Bien sur, rien a voir avec les formats de Word ou tout ce que tu veux, je parle pas de ca ...
 

Citation :


En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  


T'as pas bien compris le probleme. Supposons que M$ definisse une fonction X dans son API de DX 9. Attention, c'est juste la signature de la fonction, rien de plus. Celle-ci est realisee par le driver de la carte graphique. Le jeu, pour etre independant justement de la carte graphique, appele cette fonction X de l'API DX 9. Donc, en terme de perfs et tout le reste, aucune faute a M$, ils interviennent pas.
 
Resultat : avec une carte ATI, la fonction X marche bien. Avec une carte nVidia, la fonction a des perfs mediocres.  
 
Schematiquement, c'est ca le truc ;)
 

Citation :


C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Si nVidia avait colle aux specs DX 9 (voir l'explication ci-dessus), ca n'aurait pas ete utile. C'est pas normal de devoir du code specifique a une carte en particulier.
 
Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?


Message édité par Ernestor le 11-09-2003 à 15:16:57

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 15:16:52    

MagiSim a écrit :

Sauf qu'à la base, une unité de shading c'est quoi ? Un processeur qui va manipuler des textures...........


 
Je viens d'aller voir ton site en lien plus haut:
 
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
 
Heu ... Ca pue le hoax : ))
 
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...

Reply

Marsh Posté le 11-09-2003 à 15:18:44    

steve2002 a écrit :

tout ce pognon perdu, tout juste jouable avec une 9800. 9600,5600 poubelle, vraiment une génération perdue.


Mettre la 9600 et la 5600 dans la meme poubelle, c'est bien épais comme troll!
Excuse-moi, mais à partir d'une 50aine de fps, c'est jouable, et il faut vraiment etre exigent (ou trop habitué aux 600fps de Quake3 sur un moniteur 300Hz) pour dire le contraire.
 
nicolas_b >  nous savons bien que tu es un zealot anti-microsoft-et-intel ;) Pourtant, il faut bien le dire, direct3D est une norme. La différence avec openGL, c'est que la norme direct3D est créée, PUIS les fabricants adaptent leurs puces en conséquence. Ce que nVidia n'a visiblement pas fait avec les nv3x.
OpenGL c'est l'inverse, le standard évolue en fonction des acteurs du marché. Il est donc toujours en retard sur les capacités du matériel, d'ou la nécessité d'utiliser des extensions PROPRIETAIRES!

Reply

Marsh Posté le 11-09-2003 à 15:19:18    

nicolas_b a écrit :


1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  


Tu le rend comment le brouillard ? C'est bien la CG qui doit bosser en plus non ?
 

Citation :


2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi


T'as suivi l'affaire 3D Mark 2003 ?
 

Citation :


et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


Bon, techniquement visiblement t'as pas l'air de comprendre ce qu'il se passe. Pas bien grave. Mais bon, par contre t'es bien pro-nVidia a ce que je vois :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 15:19:48    

Ernestor a écrit :


C'est une API DX 9. Bien sur, rien a voir avec les formats de Word ou tout ce que tu veux, je parle pas de ca ...
 

Citation :


En gros, si le moteur avait été bon, il tirrerait profit des deux archis. Maintenant, chez Valve, ils se tirent une balle dans le pied, en  se cachant derrière des pretextes en disant que nvidia n'a pas respecté l'implementation directx9.  


T'as pas bien compris le probleme. Supposons que M$ definisse une fonction X dans son API de DX 9. Attention, c'est juste la signature de la fonction, rien de plus. Celle-ci est realisee par le driver de la carte graphique. Le jeu, pour etre independant justement de la carte graphique, appele cette fonction X de l'API DX 9. Donc, en terme de perfs et tout le reste, aucune faute a M$, ils interviennent pas.
 
Resultat : avec une carte ATI, la fonction X marche bien. Avec une carte nVidia, la fonction a des perfs mediocres.  
 
Schematiquement, c'est ca le truc ;)
 

Citation :


C'est surtout eux qui ont développé un path à la dernière minute pour optimiser un tant soit peu les cartes graphiques nvidia. A croire que jusqu'au dernier moment, ils se rendaient pas compte que leur jeu ramait sur les cartes nvidia ...


Si nVidia avait colle aux specs DX 9 (voir l'explication ci-dessus), ca n'aurait pas ete utile. C'est pas normal de devoir du code specifique a une carte en particulier.
 
Et pour info, TOUS les gros moteurs 3D qui vont sortir (HL 2, Doom3, Stalker ...) ont un code-path specifique aux FX. Tu crois vraiment que les types qui developpent ces moteurs sont des tanches en programmation ou des pro-ATIs en puissance ?


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.

Reply

Marsh Posté le 11-09-2003 à 15:22:30    

nicolas_b a écrit :


 
Je viens d'aller voir ton site en lien plus haut:
 
"A noter que Valve insiste particulièrement sur le fait que les drivers Detonator 50 drivers ne doivent en aucun ca être utilisés pour les benchmarks : ceux-ci désactivent par exemple le brouillard dans certains niveaux dans le seul but d'améliorer les performances ou bien détectent quand on fait des captures d'écran pour produire de meilleurs images que ce qu'on voit réellement à l'écran. Je trouve cela inadmissible."
 
Heu ... Ca pue le hoax : ))
 
1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...
 


 
Crois ce que tu veux, ça fait 6 mois au moins que l'on sait que les FX se trainent dés qu'on dépasse les PS 1.4.
 
Et si tu ne crois pas tout ça possible, et bien si c'est possible. Un screenshot, c'est une commande qui transite par le pilote pour capturer le framebuffer de la carte. Donc le pilote sait quand il va y avoir screenshot ;)
 
C'est con hein ? Mais c'est pas la première fois que nVIDIA prend ouvertement les gens pour des cons....
 
Et puis, qui te dit que le brouillard de HL2 n'est pas spécial ? Genre, pas un fog classique hérité de DX5, mais un vrai fog procédural avec shaders, par exemple ?


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:24:43    

Ernestor a écrit :


Tu le rend comment le brouillard ? C'est bien la CG qui doit bosser en plus non ?
 

Citation :


2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi


T'as suivi l'affaire 3D Mark 2003 ?
 

Citation :


et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


Bon, techniquement visiblement t'as pas l'air de comprendre ce qu'il se passe. Pas bien grave. Mais bon, par contre t'es bien pro-nVidia a ce que je vois :D


 
Non j'ai pas vu pour 3d mark 2003. Sinon, je ne suis pas pro nvidia, j'ai eu de l'ati et du nvidia, chacun à ses avantages inconvénients.

Reply

Marsh Posté le 11-09-2003 à 15:26:02    

bonne idée ce topic


---------------
Guide cpu / Zen4
Reply

Marsh Posté le 11-09-2003 à 15:26:26    

nicolas_b a écrit :


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.


 
Sauf que les limitations hardware des FX sont nombreuses, alors le potentiel, il est grillé dans le rattrappage de la vitesse. Regarde à quoi ça sert le partial precision ? ça sert à pas être largué par 2x devant une ATI........................................... GRAVE. Et t'enfermer dans ton approche nVIDIA l'e'sparfait MS il est méchant, c'est un peu réducteur. Fan d'opensource à tout va ?
 
Si Valve est passé d'un moteur principalement OpenGL (HL à DX (HL2), y'a  une raison technique. Point barre. Ils sont certainement bien plus au fat des choses que toi.


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:26:31    

nicolas_b a écrit :


 
Très bonne explication, pour répondre à ta question, je pense que si nvidia n'a pas collé aux specifications, c'est pour une bonne raison. A mon avis, la carte a du potentiel, mais personne justement veut se prendre la tete à développer des fonctions spécifiques, alors que directx9 tombe comme du pain bénis.
 
C'est d'ailleurs pour ça que je parlais des systèmes d'exploitations, car sous linux directx9 il y a pas.


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pourquoi nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D
 
T'as pas suivi l'affaire 3D Mark ? Tu devais hiberner :D
C'est simple, nVidia a triche en bidouillant ses drivers pour rendre une qualite d'image inferieure et donc ameliorer son score. Parmi d'autres tricheries ...


Message édité par Ernestor le 11-09-2003 à 15:30:03

---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
Reply

Marsh Posté le 11-09-2003 à 15:26:38    

nicolas_b a écrit :


1 - j'ai jamais vu de jeux tourner plus lentement quand le brouillard est activé.  
2 - j'aimerais bien voir ça un driver qui détecte les screenshots, et qui augmente la qualité de l'image -- > vraimment n'importe quoi
 
et puis qu'est ce qu'ils vont inventé d'autres ??? faites attention le driver va faire voler votre pc sur 300 metres ?
 
Trop ridicule cette campagne anti nvidia...


1 - C'est pas du brouillard classique. J'ai lu ca sur un scan de magasine anglophone ou ils parlaient des fonctionnalités graphiques nouvelles du moteur. Il doit donc utiliser des shaders, donc c'est pas bon pour les fx.
2 - Je pense que Gabe Newell doit mieux voir ce qui se passe sous HL2 que toi ;)
 
M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant :p ;)

Reply

Marsh Posté le 11-09-2003 à 15:27:28    

nicolas_b a écrit :


 
Non j'ai pas vu pour 3d mark 2003. Sinon, je ne suis pas pro nvidia, j'ai eu de l'ati et du nvidia, chacun à ses avantages inconvénients.

Et bien tu as raté de sacrés épisodes alors :D
 
nVIDIA n'est pas à son premier coup d'essai concernant les trichoptimisations....  :sweat:


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:28:35    

Ernestor a écrit :


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pour nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D  


 
En gros, Hen Hsun Huang fume le crack promis à Dave Orton.... :D


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:30:15    

_JbM a écrit :


1 - C'est pas du brouillard classique. J'ai lu ca sur un scan de magasine anglophone ou ils parlaient des fonctionnalités graphiques nouvelles du moteur. Il doit donc utiliser des shaders, donc c'est pas bon pour les fx.
2 - Je pense que Gabe Newell doit mieux voir ce qui se passe sous HL2 que toi ;)
 
M'enfin venant d'un zealot-pro-nvidia-et-linux, rien d'étonnant :p ;)


 
Je confirme pour le brouillard. Faut compter l'eau aussi (étendues d'eaau, pluie, eau sur le sol, etc, liquides, et aussi HDR lighting (adaptation de la vision à l'éclairage, effet de pupille ? Permettrait un rendu encore plus réaliste des transitions environnement ensoleillé et caves à charbon....)


---------------
Pour savoir pourquoi je suis magique, faut me connaître !
Reply

Marsh Posté le 11-09-2003 à 15:31:36    

MagiSim a écrit :

Et bien tu as raté de sacrés épisodes alors :D
 
nVIDIA n'est pas à son premier coup d'essai concernant les trichoptimisations....  :sweat:  


 
 :lol:  :hello:


Message édité par nicolas_b le 11-09-2003 à 15:31:52
Reply

Marsh Posté le 11-09-2003 à 15:32:30    

MagiSim a écrit :


 
Je confirme pour le brouillard. Faut compter l'eau aussi (étendues d'eaau, pluie, eau sur le sol, etc, liquides, et aussi HDR lighting (adaptation de la vision à l'éclairage, effet de pupille ? Permettrait un rendu encore plus réaliste des transitions environnement ensoleillé et caves à charbon....)


 
Bon de toute manière, je crois qu'ils sortent des nouveaux benchs demain , non ?

Reply

Marsh Posté le 11-09-2003 à 15:33:19    

Ernestor a écrit :


Une API comme DX 9 ou OpenGL (dispo sous Linux) a pour but de rendre independant le logiciel du hardware.
 
Pourquoi nVidia s'ecarte des standards. Voila mon avis (mais ca va pas te plaire :D) : nVidia pensait rester dominant avec ses FX mais n'a pas vu arriver les 9700 et la claque qu'ils ont pris. Etre dominant signifie que les developpeurs de jeux sont obliges de faire un jeu qui marche bien avec une carte nVidia. Et donc plutot suivre l'archi nVidia que les specs DX 9 ou OpenGL. Degat collateral : bcp de developpeurs n'auraient pas pris la peine de sortir une version normale DX 9 ou OpenGL cad une version optimisee ATI. C'est classique : on s'ecarte du standard et on force les gens a vous suivre, ca laisse les concurrents sur le carreau.
 
Pas de bol pour nVidia, ATI est repasse devant et y a eu pour eux un mechant retour de baton avec un joli "tel est pris qui croyait prendre" :D
 
T'as pas suivi l'affaire 3D Mark ? Tu devais hiberner :D
C'est simple, nVidia a triche en bidouillant ses drivers pour rendre une qualite d'image inferieure et donc ameliorer son score. Parmi d'autres tricheries ...


 
+1
 
peux pas mieux expliquer


---------------
Survivre à sa migration WP->Android /  Les features Windows que vous ne connaissez pas
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed