[Topic Unique] GeForce FX (NV30) GeForce FX Ultra Annulé ?

GeForce FX (NV30) GeForce FX Ultra Annulé ? [Topic Unique] - Carte graphique - Hardware

Marsh Posté le 30-01-2003 à 01:45:12    

Reprise du premier post (génération automatique) :
 
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX.jpghttp://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX2.jpg
 
3DChipset.com a posté des informations concernant les prochains chips 3D NVIDIA qu'il aurait obtenu grâce à l'aide d'une source proche du fabricant de Santa-Clara.  
 
Selon ces mêmes informations le NV30 devrait être compatible AGP8X et Direct X9. Il devrait être couplé à de la mémoire DDR 900 MHz. Il pourra appliquer 16 textures/pixel et utilisera une nouvelle technologie de compression des couleurs (ratio 4:1). Les performances de ce nouveau chip devraient être deux fois supérieures à celles d'une GeForce4 Ti4600. Autre spécification, le NV30 proposera un connecteur FireWire qui pourra certainement être utilisé pour faire de l'acquisition vidéo.  
 
Le NV31 devrait être version light du NV30 puisqu'il utilisera des fréquences de fonctionnement plus faibles, alors que le NV40 qui n'existe certainement que sur le papier pour l'instant, devrait offrir une puissance de gestion de 600 millions de polygones par seconde et un fillrate de 4 Gigapixels.  
 
Bien sûr, en attendant les spécifications officielles, ces informations sont à prendre avec des pincettes.
 
Source : Clubic.com, Hardware.fr
 
De la bombe, le prix sera 2 fois supérieur aussi  :heink:
 
Spécifications :
AGP 4x and 8x  
-Copper Core GPU Processor 0.13 m default clock 450 MHz  
-73 million transistors  
-8 pipes  
-128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit  
-370Mhz RAMDAC  
-DirectX 9.x compatible  
-Quad Vertex Shaders  
-Dual Pixel Shaders  
-Lightspeed Memory Architecture III  
-Quad Cache memory caching subsystem  
-Dual Z-buffers for greater compression without losses visibility subsystem  
-Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality.  
-12nvx mode should deliver 80% better subpixel coverage and placement than previous modes  
-Hardware bumpmapping  
-4 Textures/Pixel in a single clock cycle, loop back can also apply an additional 4 textures per rendering pass  
-A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and lighting)  
-NVAutoShaper a new prechached and precacheable system  
-Programmers can also add shapes to be temporarily stored in precache to speed things up  
-Latest OpenGL  
-Backward glide game capable thanks to NvBlur (Yes a new version of Glide!)  
-NView Multi-display Technology  
 
3D Chipset qui décidément n'aime pas les rumeurs ;-) a publié quelques informations concernant les prochains GPU de NVIDIA dont le NV30.  
Selon son informateur le NV30 possédera une interface AGP 8X (ndlr : ce n'est pas un scoop, comment pourrait-il en être autrement ?) et exploitera de la SDRAM DDR 900 MHz. Si tel est le cas c'est mal barré pour NVIDIA qui compte sortir le NV30 cet Automne, car la société Infineon, le seul fabricant à avoir annoncé une mémoire DDR aussi véloce ne prévoit pas une production en quantité avant le quatrième trimestre 2002.  
Le NV30 qui aurait visiblement bénéficié des connaissances des ex-ingénieurs de 3DFX serait exploitable en multi-chip.  
En ce qui concerne les performances, le NV30 qui appliquera 16 textures/pixel par passe et utilisera une technique de compression des couleurs 4-1 serait deux fois plus puissant qu'une GeForce4 Ti 4600.De plus l'activation du FSAA 4X n'aurait aucun impact sur ses performances.  
Enfin, et c'est peut être la fonctionnalité la plus étonnante du NV30, celui-ci disposerait d'une interface FireWire IEEE 1394 qui laisse présager que le NV30 sera capable de réaliser un encodage mpeg2 en temps réel. :ouch:  
Le NV31 serait un GPU possédant une architecture identique au NV30 avec des fréquences revues à la baisse. Quant au NV40 pour lequel peu d'informations ont filtré, NVIDIA viserait une puissance de 600 millions polygones par seconde pour un fill rate de 4 Gigapixel.
 
Le CineFX dans le NV30 de NVIDIA
Publié le 23/7/2002 par Vincent - Source : www.nvchips-fr.com
 
Face aux récentes annoncent du géant canadien ATI, NVIDIA s'en senti dans l'obligation de dévoiler quelques-unes des spécifications de son prochain chip : le NV30.  
 
En effet selon ce document( http://developer.nvidia.com/docs/I [...] rdware.pdf ), le NV30 sera basé autour de l'architecture CineFX. Cette architecture proposera 16 unités de textures permettant d'offrir en théorie un texel fill rate deux fois plus élevé que celui du Radeon 9700 (doté d'une unité de texture pour chacun de ses 8 pipelines).  
 
Le NV30 supportera Direct X9 et sera compatible avec la version 2.0+ des Vertex shaders qui proposera jusqu'à 65536 instructions (contre 1024 pour la version classique Vertex Shaders 2.0 qui sera intrégrée à DirectX 9).  
 
Tandis que la version 2.0+ des Pixel Shaders également supportée proposera jusqu'à 1024 instructions de couleurs et 1024 instructions de textures contre respectivement 64 et 32 pour la version 2.0 classique de DirectX 9.  
 
Pour rappel le NV30 sera gravé en 0.13 micron et devrait être proposé vers le mois de novembre, tandis que les premières cartes Radeon 9700 gravées en 0.15 micron devront être disponibles en septembre.
 
26/07/2002
Le site Beyond 3D a publié les premières spécifications que NVIDIA lui aurait communiquées en ce qui concerne son prochain chip 3D le NV30, spécifications que voici :  
 
- Gravure 0.13 micron.  
- Compatible AGP 8x.  
- Support pour la mémoire DDR-II.  
- Vertex Shaders et Pixels Shaders supportés dans leur version 2.0+.  
- Supporte les extensions OpenGL pour la programmations étendues des Pixel Shader et Vertex Shader.  
- Nouvelles technologies pour économiser et optimiser la bande passante mémoire.  
- Supporte les couleurs codées sur 64 et 128-bits.  
- Supporte une programmation 3D avancée et un langage de haut niveau en ce qui concerne les shaders.  
- Sortie prévue cet automne avec la disponibilité de Direct X9.
 
30/07/2002
Source : http://hardware.actiontrip.com
NV30 aka "Omen" (Farewell GeForce, hello Demian)  
AGP 4x and 8x  
Copper Core GPU Processor 0.13 m default clock 450 MHz  
73 million transistors  
8 pipelines  
128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit ; yeah 256 bit!  
370Mhz RAMDAC  
Direct X 9.X compatible  
Quad Vertex Shaders  
Dual Pixel Shaders  
85 bone capable  
Lightspeed Memory Architecture III  
Quad Cache memory caching subsystem  
Dual Z-buffers for greater compression without losses  
Visibility sub-system  
NvAuto advanced pre-charge  
Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality.  
12nvx mode should deliver 80% better subpixel coverage and placement than previous modes  
Hardware bumpmapping  
4 Textures/Pixel in a single clock cycle "loop back" can also apply an additional 4 textures per rendering pass  
A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and Lighting) NVAutoShaper a new prechached and precacheable system  
Programmers can also add shapes to be temporarily stored in precache to speed things up  
Latest Open GL  
Backward Glide game capable thanks to NvBlur (Yeah, new Glide!)  
NView Multi-display Technology  
Built in re-programmable DVD and TV decoder chip
 
15/11/2002
La dernière vidéo sur le site de NVIDIA dévoile un peu plus d'informations sur le NV30 puisqu'on peut voir quelques puces ... ainsi que 3 cartes comme vous pouvez le voir sur ce screenshot (désolé pour la qualité, mais la vidéo est en streaming) :
 
Comme vous pouvez le voir, la carte fait environ la longueur d'une GeForce4 Ti 4600 et est donc plus longue qu'une Radeon 9700. Les puces mémoires sont bien entendu de type BGA. Plus surprenante est la présence d'un connecteur dédié à recevoir une alimentation supplémentaire identique à celui que l'on trouvait sur les Voodoo5 5500 et similaire (en dehors de son format) à celui que l'on trouve sur les Radeon 9700 Pro. Malgré le passage en 0.13µ, les 125 Millions de transistors du NV30 consomme donc plus que ce que peut fournir le port AGP, ce qui laisse envisager une fréquence assez élevée.
 
Dans un tout autre registre, il est à noter que Geforcefx.com indique désormais qu'il n'est en aucun cas lié à la société NVIDIA. Rien n'est donc sûr en ce qui concerne le nom définitif du NV30.
 
Source : Harware.fr
 
Il semblerait hélas que les hard-core gamers doivent encore patienter, puisque le NV30, futur GPU fleuron de NVIDIA, ne sera vraisemblablement disponible que début 2003...
 
NVIDIA se concentre en effet sur l'amélioration de ses moyens de production afin de réduire les coûts de fabrication ce qui prendra un certain temps. Si certains développeurs chanceux ont pu avoir quelques exemplaires de NV30 dès février 2002, il n'en serait pas de même pour le commun des mortels qui devra attendre le début de l'année prochaine pour pouvoir ce procurer la bête dont le nom commerciale reste inconnu, même si certaines rumeurs font état de noms sympathiques.  
 
D'après NVIDIA le coût de développement de la famille NV30 s'élève à près de 400 million de dollars : le fabricant fera donc tout pour rentabiliser cet investissement. Il semble de ce fait plausible de voir le NV30 décliné en versions NV31, NV34 & NV35. Les prochains chipsets NVIDIA intégreront vraisemblablement un module graphique hérité du NV3x.
 
Souce : Clubic
 
On apprend sur Reactor Critical que la prochaine puce graphique de nVIDIA connue jusqu'à présent sous le nom de code NV30 pourrait bien finalement s'appeler GeForceFX.
 
En effet le nom de domaine http://www.GeForceFX.com a d'ores et déjà été réservé. Cette information est bien entendue à prendre avec des pincettes, et pour se prononcer il vaut mieux attendre la semaine prochaine (le 18 novembre pour être précis) date à laquelle sera annoncée officiellement cette nouvelle puce.
 
Source : Blue-Hardware
 
18/11/2002
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX4.jpg
Après quelques reports, de nombreuses rumeurs et une attente qui n'en finissait plus, NVIDIA vient enfin de dévoiler son dernier poulain autrefois connu sous le nom de NV30. Un poulain qui, avant même son annonce officielle, est déjà sous le feu de la critique. Il doit en effet redorer le blason du chef de file de la 3D sur PC, quelque peu malmené ces derniers temps par un ATI Radeon 9700 Pro au leadership bien arrogant.  
 
NVIDIA n'a pas pour habitude de recoller à un concurrent et c'est pourtant ce que tout le monde attend de la compagnie de Santa Clara depuis que l'adversaire canadien a mis sur le marché ce fameux Radeon 9700 Pro. Non content de ravir sa couronne au roi NVIDIA, ATI s'est même permis de la conserver durant plusieurs mois. La présentation officielle du NV30, maintenant appelé GeForce FX, qui s'est tenue aujourd'hui même devait remettre les choses à leur place...  
 
 
Passage à la gravure 0.13 micron  
 
Commençons cette rapide présentation par l'innovation qui a certainement fait couler le plus d'encre et qui semble être en grande partie responsable du retard de NVIDIA : le 0.13 micron. Alors qu'Intel et AMD sont déjà passés à cette finesse de gravure pour leurs processeurs respectifs, le GeForce FX est le premier composant graphique gravé aussi précisément. C'est le fondeur taiwanais TSMC qui se charge de la production des puces NVIDIA et c'est donc lui qui a connu quelques difficultés pour parvenir à ce niveau de précision de manière fiable.  
 
Il faut dire que le GeForce FX est le composant le plus complexe jamais mis au point. Avec ses quelques 125 millions de transistors, il en compte, par exemple, presque trois fois plus qu'un Pentium 4 (55 millions pour les Northwood). On peut d'ailleurs dire que nous assistons ici à une refonte complète de l'architecture précédente des GPU NVIDIA, alors que le passage du GeForce3 au GeForce4 n'avait pas été l'occasion d'un tel bouleversement (augmentation du nombre de transistors assez faible : 57 millions à 63 millions). La compagnie de Santa Clara ne s'est donc pas contenté de mettre à niveau une ancienne conception !  
 
Le GeForce FX sous toutes les coutures !
Avec une telle débauche de transistors la puissance brute du GeForce FX est impressionnante. Doté de 8 pipelines et de 2 TMUs, celui-ci devrait en effet pouvoir effectuer le rendu de 16 textures par passe et traiter 200 millions de triangles par seconde.  
 
Les avantages du cuivre et de la DDR-II  
 
NVIDIA et TSMC ont profité du passage au 0.13 micron pour apporter d'autres modifications à la conception du GeForce FX. Ces modifications ont principalement eu pour objectif d'améliorer la dissipation de la chaleur et la consommation électrique dans le but évident d'atteindre de la manière la plus stable possible de très hautes fréquences. Les deux compagnies ont de ce fait opté pour un design dit "flip chip", pour un remplacement de l'aluminium par le cuivre, bien meilleur conducteur, et pour l'intégration de transistors présentés comme 25% plus petits. Toutefois on peut émettre des doutes quant à l'effet bénéfique de la gravure 0,13µ sur la consommation électrique puisque les cartes reference design du NV30 de NVIDIA comportent toutes un connecteur Molex, l'AGP n'étant vraisemblablement pas en mesure de fournir une alimentation électrique suffisante.  
 
Sans qu'aucune fréquence de fonctionnement n'ait pour le moment été annoncée de manière officielle, ces changements doivent permettre à NVIDIA d'atteindre la barrière mythique des 500 Mhz en fonctionnement. Cela restera évidemment à vérifier à l'arrivé des premières cartes mais laisse déjà une certaine marge de man?uvre face aux 325 MHz du Radeon 9700 Pro d'ATI (qui pourrait toutefois évoluer prochainement).  
 
En plus d'être le premier à présenter un GPU en 0.13 micron, NVIDIA est également le premier à exploiter la toute récente mémoire DDR-II sur une carte distribuée à grande échelle. Il apparaît en effet très clairement que la DDR tel qu'on la connaît aujourd'hui approche de ses limites au moins en ce qui concerne les cartes graphiques. Depuis quelques temps déjà les constructeurs planchaient sur un successeur, ce sera très bientôt chose faite avec des temps d'accès largement inférieur et une fréquence de fonctionnement en nette augmentation.  
 
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX3.jpg
 
Le premier modèle de carte basée sur le GeForce FX : notez sa longueur et le connecteur d'alimentation.
Même si ici aussi aucun chiffre n'a été communiqué, on parle de temps d'accès inférieurs à 2.5 ns d'abord puis très bientôt inférieurs à 2.0 ns alors que la fréquence atteindra vraisemblablement 1GHz ! Le seul petit bémol est que la DDR2 sera exploitée en 128-bits dans un premier temps avant que NVIDIA ne la fasse migrer en 256-bit dans une prochaine révision. L'architecture mémoire LightSpeed Memory Arhitecture employée par le GeForce FX passe en version 3.0 et devrait offrir une bande passante mémoire maximale de 48Go par seconde !  
 
Si ces chiffres donnent le vertige, ils posent tout de même la question du prix de l'ensemble. Le passage en 0.13 micron est en effet plus ou moins sous le contrôle de NVIDIA qui peut, en quelque sorte, fixer comme il le veut le prix de son GPU, mais en revanche le coût d'une telle mémoire échappe complètement à la compagnie de Santa Clara...  
 
Source : Clubic
 
Un système de refroidissement imposant !
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX5.jpg
 
19/11/2002
Photos des possibilités du GeForceFX :
http://www.nvidia.com/view.asp?PAGE=geforcefx_demos
 
20/11/2002
Le GeForce FX (NV30) se concrétise  
 
 C'est aujourd'hui que NVIDIA a présenté à la presse française son dernier bébé : le NV30 alias GeForce FX. La présentation, menée de main de maître par Geoff Ballew (chef produits GPU), a été pour nous l'occasion de voir de nos propres yeux le NV30 et de constater ses indéniables qualités, grâce aux démonstrations pétillantes de vie que NVIDIA a projeté.  
 
Le GeForce FX offre réellement, avec les applications sachant en tirer parti, un niveau de réalisme digne des grandes productions hollywoodiennes et nous a laissé tout simplement bouche bée. Au cours de cette conférence nous avons pu grappiller de ci de là quelques informations que nous allons partager avec vous en exclusivité.  
 
Durant cet evénement la presse en émoi a pu admirer et toucher la carte reference design à base de GeForce FX. En prenant la bête en main le moins que l'on puisse dire est que vous en aurez pour votre argent ! En effet l'imposant heat pipe en cuivre et son couple ventilateur/radiateur pèsent un poids non négligeable. Physiquement la carte est aussi longue qu'une GeForce 4 Ti4600 mais son système de refroidissement, inspiré de l'Abit OTES, occupera un slot PCI.  
 
Certains constructeurs devraient heureusement proposer des GeForce FX avec un système de ventilation plus conventionnel. NVDIA a confirmé les fréquences de fonctionnement du monstre : le GPU tournera à 500MHz contre 1GHz pour la mémoire DDR2. Le timing mémoire devrait être de 2.0ns alors que le GPU intégrera en standard un moteur de décodage MPEG 100% matériel.  
 
La carte sera probablement équipée de 128 Mo de mémoire au minimum. Il est cependant fort possible qu'une version 256 Mo soit au programme... De même NVIDIA pourrait annoncer de nouvelles déclinaisons du GeForce FX ce printemps et cet automne.  
 
Côté disponibilité les versions finales du NV30 seront livrées fin décembre alors que la disponibilité massive des cartes GeForce FX devrait intervenir en février 2003. Enfin NVIDA a communiqué quelques résultats obtenus par la carte avec divers benchs.  
 
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX6.gif
Mode FSAA 4x
 
http://perso.wanadoo.fr/bondanlpain/GeForceFX/GeForceFX7.gif
Mode FSAA 4x & Anisotropic 8x
 
Résultats communiqués par NVIDIA
 
Source : Clubic
 
Premiers Benchmark
http://www.maximumpc.com/features/ [...] 01-03.html
http://www.tecchannel.de/hardware/1109/
http://www.hardware.fr/articles/453/page2.html
 
*********************************
* ENFIN UNE VERSION SILENCIEUSE ??? *
*********************************
 
http://www.hardware.fr/medias/photos_news/00/05/IMG0005877.jpg
 
Gainward vient d'annoncer ses GeForce FX 5800 Ultra et 5800, les Gainward FX PowerPack! Model Ultra/1000 Plus ?Golden Sample? et Gainward FX PowerPack! Model Ultra/800 Plus ?Golden Sample? qui sont aux prix respectifs de 649 et 549? TTC (ouch!). Afin de justifier ce prix élevé, Gainward indique que la Ultra/1000 sera en fait livrée avec une carte son et une carte firewire. Mais le plus intéressant c'est que Gainward indique que ses deux GeForce FX seront dotées d'un refroidissement offrant un niveau de bruit de 7 dB (inaudible donc, a priori un refroidissement passif où un watercooling), contre 70 dB pour celui utilisé sur les autres GeForce FX ! Voilà donc une nouvelle très intéressante, et nous sommes pressés de voir à quoi ressemble ce refroidissement !
 
Update : Gainward nous indique que la photo de la carte ne sera disponible qu'après le nouvel an chinois.
 
Source : Hardware.fr
 
************************
* LA FIN DU GEFORCE FX ??? *
************************
 
Le sulfureux site The Inquirer révèle aujourd'hui que NVIDIA aurait décidé d'arrêter la fabrication des GeForce FX. Cette information, sujette à caution, est au premier abord surprenante, toutefois en y regardant de plus près l'annonce semble logique... De par le trop grand retard accumulé le NV30 n'est pas le Radeon 9700 Pro killer annoncé. De plus certains choix techniques comme l'utilisation de mémoire DDR-II et l'imposant système de ventilation ont valus à la compagnie de vives critiques. Enfin le GeForce FX 5800 Ultra est cher très cher, trop cher. Autant de raisons qui font que NVIDIA semble vouloir limiter la casse en ayant ordonné à TSMC de ne produire que 100.000 pièces et pas une de plus.  
 
Si l'actuel GeForce FX semble être condamné avant même qu'il ne soit physiquement disponible, l'architecture de la puce reste très intéressante. C'est pourquoi NVIDIA concentre ses efforts sur le développement et l'amélioration de cette architecture. Aussi on devrait prochainement voir apparaître les déclinaisons (NV31 et NV34) du GeForce FX. Contacté par nos soins, NVIDIA ne souhaite pas commenter l'information.
 
Source : Clubic
 
************************
* ANNULATION GEFORCE FX?*
************************
 
Comme vous le savez, depuis cette semaine une rumeur annonce que le dernier bébé de NVIDIA, le GeForce FX, ne pourrait être produit qu'à hauteur de 100 000 exemplaires (voir cette news).  
 
Aujourd'hui le site HardOCP, qui auparavant avait déjà révélé quelques informations intéressantes sur les nouvelles cartes GeForce FX, annonce que les GeForce FX Ultra ne seront pas du tout commercialisées.  
 
Les acheteurs ayant déjà commandé un exemplaire de la carte devraient malgré tout être livrés, les autres devront tout simplement se rabattre sur le modèle classique.  
 
Sachez également, que le site TheInquirer.net affirme désormais que NVIDIA aurait annoncé à ses partenaires l'abandon du GeForce FX. La firme de Santa-Clara aurait décidé de se concentrer directement sur le NV35 afin de le placer à temps en face de son concurrent le R350 d'ATI.  
 
Malheureusement, NVIDIA n'a toujours pas confirmé ou démenti de manière officielle ces informations.
 
http://www.clubic.com/n/n7827.html


Message édité par bondanlpain le 08-02-2003 à 17:46:47
Reply

Marsh Posté le 30-01-2003 à 01:45:12   

Reply

Marsh Posté le 30-01-2003 à 01:45:12    

[:kuzco_007]

Reply

Marsh Posté le 30-01-2003 à 01:45:15    

:)

Reply

Marsh Posté le 30-01-2003 à 01:46:32    

grrrrrrrrrrrrrrr :fou:  :fou:  :fou:

Reply

Marsh Posté le 30-01-2003 à 01:46:59    

stefff31 a écrit :

grrrrrrrrrrrrrrr :fou:  :fou:  :fou:  

:na:

Reply

Marsh Posté le 30-01-2003 à 01:47:11    

Slyyde ... le bouton TT il est ou ?  :fou:  
franchement c'est lourd les gars là


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
Reply

Marsh Posté le 30-01-2003 à 01:47:37    

bon bah j'suis trois....
j'ai donné tout ce que j'ai pu pourtant....
DOPES va ;)

Reply

Marsh Posté le 30-01-2003 à 01:48:58    

stefff31 a écrit :

bon bah j'suis trois....
j'ai donné tout ce que j'ai pu pourtant....
DOPES va ;)

L'essentiel est d'avoir le dernier post,ton nom reste marqué a jamais :love:

Reply

Marsh Posté le 30-01-2003 à 01:50:01    

ShadowBlade a écrit :

L'essentiel est d'avoir le dernier post,ton nom reste marqué a jamais :love:  


mein gott
bon, personne pour discuter tricot sur la FX?
 :??:

Reply

Marsh Posté le 30-01-2003 à 01:50:29    

Oxygen3 a écrit :

Slyyde ... le bouton TT il est ou ?  :fou:  
franchement c'est lourd les gars là

promis je le ferais plus mais la ca me tentais trop.... :ange:  
vu comment le topic partait en couilles peut etre qu'un nouveau split le referas partir sur de bonnes bases.... :whistle:  
c la premiere fois que je troll comme ca... :pt1cable:  
je le ferais plus juré :) (et j'suis serieux.... :) )

Reply

Marsh Posté le 30-01-2003 à 01:50:29   

Reply

Marsh Posté le 30-01-2003 à 01:53:32    

ShadowBlade a écrit :

L'essentiel est d'avoir le dernier post,ton nom reste marqué a jamais :love:  

ouais mais sur la fin t'as employer une methode malhonete :gun: ;)

Reply

Marsh Posté le 30-01-2003 à 01:54:02    

ToNToN SoNiC a écrit :


mein gott
bon, personne pour discuter tricot sur la FX?
 :??:  

Que dire de plus,on tourne en rond,bruit blablabla,perfs quasi equivalentes a la radeon hors antialiasing dans les 3/4 des cas blablabla,qualite d'antialiasing pourrie blablabla,prix hallucinant blablabla,ingé 3dfx spabien blablabla
 
Bref [:spamafote]

Reply

Marsh Posté le 30-01-2003 à 01:55:36    

stefff31 a écrit :

ouais mais sur la fin t'as employer une methode malhonete :gun: ;)

Et encore j'ai pas employé ma botte secrete [:zebra33]

Reply

Marsh Posté le 30-01-2003 à 02:09:18    

ToNToN SoNiC a écrit :


mein gott
bon, personne pour discuter tricot sur la FX?
 :??:  

la carte est bruyante d'après les tests.  :ange:

Reply

Marsh Posté le 30-01-2003 à 02:13:49    

latoucheF7duclavier a écrit :

la carte est bruyante d'après les tests.  :ange:  

Parrait meme qu'elle est pas si puissante que ca en fait [:dawa]

Reply

Marsh Posté le 30-01-2003 à 02:43:45    

latoucheF7duclavier a écrit :

la carte est bruyante d'après les tests.  :ange:  


voila ca c tricot :D

Reply

Marsh Posté le 30-01-2003 à 04:47:53    

reas0n a écrit :


du fsaa et de l'aniso ca change qd meme qq chose, maintenant si tu montes en hautes resolution, ca comble pas mal aussi mais la l'ecran 19-21" s'impose alors...pour moi une carte a 600? meme a 400? doit etre capable de gerer les deux filtres...


 
j,ai une 17" et je prend le 1600 en 85hz  :heink:


---------------
Take it to the red line
Reply

Marsh Posté le 30-01-2003 à 05:22:00    

ShadowBlade a écrit :

Parrait meme qu'elle est pas si puissante que ca en fait [:dawa]


 
Donc ça veut dire que la radeon est pas vraiment puissante, alors on a que des carte de merde qui coute cher sur le marché, eh bien spa la joie.
 
En plus des bench ya rien de plus idiot. :pfff:


---------------
http://www3.sympatico.ca/lise.brassard/
Reply

Marsh Posté le 30-01-2003 à 07:22:20    

[:drapo]  :whistle:


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
Reply

Marsh Posté le 30-01-2003 à 07:32:37    


+1 :o

Reply

Marsh Posté le 30-01-2003 à 07:35:47    

:hello:


---------------
Et si c’était ça la vie / Et si on nous l’avait pas dit ?
Reply

Marsh Posté le 30-01-2003 à 07:36:12    

Reply

Marsh Posté le 30-01-2003 à 08:00:45    

:bounce:

Reply

Marsh Posté le 30-01-2003 à 08:03:58    

[:michrone]

Reply

Marsh Posté le 30-01-2003 à 08:12:54    

mantronic a écrit :


 
j,ai une 17" et je prend le 1600 en 85hz  :heink:  


j't'imagines bien avec la loupe devant ton ecran a la recherche d'une image  :lol: [:rofl]


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
Reply

Marsh Posté le 30-01-2003 à 08:41:45    

Mavo a écrit :


Donc ça veut dire que la radeon est pas vraiment puissante, alors on a que des carte de merde qui coute cher sur le marché, eh bien spa la joie.
En plus des bench ya rien de plus idiot. :pfff:  

Spa ce que j'ai voulu dire,mais simplement qu'en comparaison de l'attente,le gain de puissance par rapport a une radeon 9700 est plus que ridicule :o

Reply

Marsh Posté le 30-01-2003 à 08:43:36    

Citation :

Jan 29, 2003  
------------  
NV30 vs R300, current developments, etc  
 
At the moment, the NV30 is slightly faster on most scenes in Doom than the  
R300, but I can still find some scenes where the R300 pulls a little bit  
ahead. The issue is complicated because of the different ways the cards can  
choose to run the game.  
 
The R300 can run Doom in three different modes: ARB (minimum extensions, no  
specular highlights, no vertex programs), R200 (full featured, almost always  
single pass interaction rendering), ARB2 (floating point fragment shaders,  
minor quality improvements, always single pass).  
 
The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five  
rendering passes, no vertex programs), NV20 (full featured, two or three  
rendering passes), NV30 ( full featured, single pass), and ARB2.  
 
The R200 path has a slight speed advantage over the ARB2 path on the R300, but  
only by a small margin, so it defaults to using the ARB2 path for the quality  
improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path.  
Half the speed at the moment. This is unfortunate, because when you do an  
exact, apples-to-apples comparison using exactly the same API, the R300 looks  
twice as fast, but when you use the vendor-specific paths, the NV30 wins.  
 
The reason for this is that ATI does everything at high precision all the  
time, while Nvidia internally supports three different precisions with  
different performances. To make it even more complicated, the exact  
precision that ATI uses is in between the floating point precisions offered by  
Nvidia, so when Nvidia runs fragment programs, they are at a higher precision  
than ATI's, which is some justification for the slower speed. Nvidia assures  
me that there is a lot of room for improving the fragment program performance  
with improved driver compiler technology.  
 
The current NV30 cards do have some other disadvantages: They take up two  
slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually  
one to care about fan noise, but the NV30 does annoy me.  
 
I am using an NV30 in my primary work system now, largely so I can test more  
of the rendering paths on one system, and because I feel Nvidia still has  
somewhat better driver quality (ATI continues to improve, though). For a  
typical consumer, I don't think the decision is at all clear cut at the  
moment.  
 
For developers doing forward looking work, there is a different tradeoff --  
the NV30 runs fragment programs much slower, but it has a huge maximum  
instruction count. I have bumped into program limits on the R300 already.  
 
As always, better cards are coming soon.  
 
-------------  
 
Doom has dropped support for vendor-specific vertex programs  
(NV_vertex_program and EXT_vertex_shader), in favor of using  
ARB_vertex_program for all rendering paths. This has been a pleasant thing to  
do, and both ATI and Nvidia supported the move. The standardization process  
for ARB_vertex_program was pretty drawn out and arduous, but in the end, it is  
a just-plain-better API than either of the vendor specific ones that it  
replaced. I fretted for a while over whether I should leave in support for  
the older APIs for broader driver compatibility, but the final decision was  
that we are going to require a modern driver for the game to run in the  
advanced modes. Older drivers can still fall back to either the ARB or NV10  
paths.  
 
The newly-ratified ARB_vertex_buffer_object extension will probably let me do  
the same thing for NV_vertex_array_range and ATI_vertex_array_object.  
 
Reasonable arguments can be made for and against the OpenGL or Direct-X style  
of API evolution. With vendor extensions, you get immediate access to new  
functionality, but then there is often a period of squabbling about exact  
feature support from different vendors before an industry standard settles  
down. With central planning, you can have "phasing problems" between  
hardware and software releases, and there is a real danger of bad decisions  
hampering the entire industry, but enforced commonality does make life easier  
for developers. Trying to keep boneheaded-ideas-that-will-haunt-us-for-years  
out of Direct-X is the primary reason I have been attending the Windows  
Graphics Summit for the past three years, even though I still code for OpenGL.  
 
The most significant functionality in the new crop of cards is the truly  
flexible fragment programming, as exposed with ARB_fragment_program. Moving  
from the "switches and dials" style of discrete functional graphics  
programming to generally flexible programming with indirection and high  
precision is what is going to enable the next major step in graphics engines.  
 
It is going to require fairly deep, non-backwards-compatible modifications to  
an engine to take real advantage of the new features, but working with  
ARB_fragment_program is really a lot of fun, so I have added a few little  
tweaks to the current codebase on the ARB2 path:  
 
High dynamic color ranges are supported internally, rather than with  
post-blending. This gives a few more bits of color precision in the final  
image, but it isn't something that you really notice.  
 
Per-pixel environment mapping, rather than per-vertex. This fixes a pet-peeve  
of mine, which is large panes of environment mapped glass that aren't  
tessellated enough, giving that awful warping-around-the-triangulation effect  
as you move past them.  
 
Light and view vectors normalized with math, rather than a cube map. On  
future hardware this will likely be a performance improvement due to the  
decrease in bandwidth, but current hardware has the computation and bandwidth  
balanced such that it is pretty much a wash. What it does (in conjunction  
with floating point math) give you is a perfectly smooth specular highlight,  
instead of the pixelish blob that we get on older generations of cards.  
 
There are some more things I am playing around with, that will probably remain  
in the engine as novelties, but not supported features:  
 
Per-pixel reflection vector calculations for specular, instead of an  
interpolated half-angle. The only remaining effect that has any visual  
dependency on the underlying geometry is the shape of the specular highlight.  
Ideally, you want the same final image for a surface regardless of if it is  
two giant triangles, or a mesh of 1024 triangles. This will not be true if  
any calculation done at a vertex involves anything other than linear math  
operations. The specular half-angle calculation involves normalizations, so  
the interpolation across triangles on a surface will be dependent on exactly  
where the vertexes are located. The most visible end result of this is that  
on large, flat, shiny surfaces where you expect a clean highlight circle  
moving across it, you wind up with a highlight that distorts into an L shape  
around the triangulation line.  
 
The extra instructions to implement this did have a noticeable performance  
hit, and I was a little surprised to see that the highlights not only  
stabilized in shape, but also sharpened up quite a bit, changing the scene  
more than I expected. This probably isn't a good tradeoff today for a gamer,  
but it is nice for any kind of high-fidelity rendering.  
 
Renormalization of surface normal map samples makes significant quality  
improvements in magnified textures, turning tight, blurred corners into shiny,  
smooth pockets, but it introduces a huge amount of aliasing on minimized  
textures. Blending between the cases is possible with fragment programs, but  
the performance overhead does start piling up, and it may require stashing  
some information in the normal map alpha channel that varies with mip level.  
Doing good filtering of a specularly lit normal map texture is a fairly  
interesting problem, with lots of subtle issues.  
 
Bump mapped ambient lighting will give much better looking outdoor and  
well-lit scenes. This only became possible with dependent texture reads, and  
it requires new designer and tool-chain support to implement well, so it isn't  
easy to test globally with the current Doom datasets, but isolated demos are  
promising.  
 
The future is in floating point framebuffers. One of the most noticeable  
thing this will get you without fundamental algorithm changes is the ability  
to use a correct display gamma ramp without destroying the dark color  
precision. Unfortunately, using a floating point framebuffer on the current  
generation of cards is pretty difficult, because no blending operations are  
supported, and the primary thing we need to do is add light contributions  
together in the framebuffer. The workaround is to copy the part of the  
framebuffer you are going to reference to a texture, and have your fragment  
program explicitly add that texture, instead of having the separate blend unit  
do it. This is intrusive enough that I probably won't hack up the current  
codebase, instead playing around on a forked version.  
 
Floating point framebuffers and complex fragment shaders will also allow much  
better volumetric effects, like volumetric illumination of fogged areas with  
shadows and additive/subtractive eddy currents.  
 
John Carmack


http://www.shacknews.com/docs/pres [...] mackplan.x

Reply

Marsh Posté le 30-01-2003 à 08:44:20    

Désolé si ça a déjà été posté, mais j'ai zappé quelques pages ce matin ... (vu l'intérêt grandissant des remarques sur ce topic).
 
Déclaration de Carmack :
 

Citation :

At the moment, the NV30 is slightly faster on most scenes in Doom than the R300, but I can still find some scenes where the R300 pulls a little bit ahead. The issue is complicated because of the different ways the cards can choose to run the game.
 
...


 
 
 
 
http://www.webdog.org/plans/1/
 
C'est pas vraiment bon signe pour le fx ça ... :/
 
Edit : Grillaid tsss ...


Message édité par Zo0p le 30-01-2003 à 08:46:18
Reply

Marsh Posté le 30-01-2003 à 08:47:32    

Zo0p a écrit :

Edit : Grillaid tsss ...


:p  :sol:  :hello:


Message édité par evildeus le 30-01-2003 à 08:48:23
Reply

Marsh Posté le 30-01-2003 à 08:51:35    

Citation :

As always, better cards are coming soon.

 
 
 :heink:  :??:  il etend quoi par la ? Que les cartes actuelles comme la 9700pro et la fx ne suffisent pas pour le jeu et qu'il faudra patienter pour la R400 ? Carmack ce gars il est trop chiant, il annonce chaque fois une version differente de ces précédents propos, une vertibale girouette  :pfff: Son jeu il va pouvoir se le mettre ou j'pense  :lol:


---------------
Voir profil matos pour avis - http://forum.hardware.fr/forum2.ph [...] 9#t2108082
Reply

Marsh Posté le 30-01-2003 à 08:54:38    

reas0n a écrit :

Citation :

As always, better cards are coming soon.

 
 
 :heink:  :??:  il etend quoi par la ? Que les cartes actuelles comme la 9700pro et la fx ne suffisent pas pour le jeu et qu'il faudra patienter pour la R400 ? Carmack ce gars il est trop chiant, il annonce chaque fois une version differente de ces précédents propos, une vertibale girouette  :pfff: Son jeu il va pouvoir se le mettre ou j'pense  :lol:  

Ben si D3 sort Q3 2003 alors le R400 et le NV35 risquent d'etre le top des CG.

Reply

Marsh Posté le 30-01-2003 à 08:58:05    

[:plusun]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
Reply

Marsh Posté le 30-01-2003 à 09:00:51    

Citation :

The current NV30 cards do have some other disadvantages: They take up two slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually one to care about fan noise, but the NV30 does annoy me.


 
Même Carmack en remet une couche pour le bruit. Ca doit vraiment être grave.

Reply

Marsh Posté le 30-01-2003 à 09:08:31    

Zo0p a écrit :

Citation :

The current NV30 cards do have some other disadvantages: They take up two slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually one to care about fan noise, but the NV30 does annoy me.


 
Même Carmack en remet une couche pour le bruit. Ca doit vraiment être grave.

Vi :D, enfin il l'utilise sur son PC tout de meme  :whistle:

Reply

Marsh Posté le 30-01-2003 à 09:35:40    

drapal

Reply

Marsh Posté le 30-01-2003 à 10:59:03    

Evildeus a écrit :

Vi :D, enfin il l'utilise sur son PC tout de meme  :whistle:  

Je pense que Carmack utilise la GFFX en grande partie pour tester les fonctions suplémentaire de la carte (les fameux shaders 2.0+).
 
 
 
P.S. j'aime bien cette boite, ça change
 
http://www.hardware.fr/medias/photos_news/00/05/IMG0005858_1.jpg


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
Reply

Marsh Posté le 30-01-2003 à 11:05:30    


 
au vu des premiers bench de GFFX je trouve pas que ce soit une révolution.. bien au contraire... interface DDR-II, fréquence de 500mhz et tout et tout. et bien le R300 d'ATI sorti il à quelque mois se permet avec une fréquence moindre et de la DDR-I de parvenir a dépasser dans certains cas le NV30.Ben pour le rapport prix/perfs le choix est vite fait surtout quand on va voir arriver le R350 qui devrait être plus performant que le NV30 ultra...Esperons que les drivers rattrapent un peu la chose sinon c po terrible cette carte.faut peut etre attendre des aplli et des jeux DX9 pour voir la différence mais bon ca sera trop tard.vous en pensez quoi ?

Reply

Marsh Posté le 30-01-2003 à 11:08:29    

Evildeus a écrit :

[quote]Jan 29, 2003  
------------  
NV30 vs R300, current developments, etc (...)
 
Nvidia still has somewhat better driver quality (ATI continues to improve, though)(...)


Que veut-il dire par là à votre avis ? Il a des microfreezes avec sa radeon ? des freezes / plantages ? Problemes de textures qui ne s'affichent pas ou clignotent ?  [:yamusha]

Reply

Marsh Posté le 30-01-2003 à 11:18:54    

niknolt a écrit :


Que veut-il dire par là à votre avis ? Il a des microfreezes avec sa radeon ? des freezes / plantages ? Problemes de textures qui ne s'affichent pas ou clignotent ?  [:yamusha]  

la phrase complète est plus parlante:

Citation :

I am using an NV30 in my primary work system now, largely so I can test more of the rendering paths on one system, and because I feel Nvidia still has somewhat better driver quality (ATI continues to improve, though).


en gros et en français, Carmack "sent" que les drivers nVidia ont une qualité légerement supérieure aux drivers Ati. pas de quoi fouetter un chat [:spamafote]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
Reply

Marsh Posté le 30-01-2003 à 11:24:09    

[:michrone]

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed