GeForce FX (NV30) [Spécifications Inside] [Topic Unique] - Carte graphique - Hardware
Marsh Posté le 27-01-2003 à 23:19:26
yoyo3d a écrit : |
et g dit le contraire ?
parfois certains ont du mal qd meme .....
Marsh Posté le 27-01-2003 à 23:22:27
dans la série foutage de gueule :
Citation : When quizzed by a gamer at the sound levels coming from the back of the card, an nVidia rep was quick to suggest that it wouldn?t matter much because gamers would be using headphones during their gaming. |
Marsh Posté le 27-01-2003 à 23:22:59
Sonark a écrit : |
Marsh Posté le 27-01-2003 à 23:22:59
http://www.infogrames.com/corp_statements.php
si avec ca ils zont pas de nv50 quadro, je sais pas...
Marsh Posté le 27-01-2003 à 23:25:04
reas0n a écrit : http://www.infogrames.com/corp_statements.php |
ta ka aller visiter les locaux ...
sur ce bonne nuit
Marsh Posté le 27-01-2003 à 23:25:46
thacat a écrit : |
et quand tu vois un type qui a la licence de maya et/ou 3DSmax tu penses quoi? quel con ce type?
Marsh Posté le 27-01-2003 à 23:26:09
thacat a écrit : |
ouai vais les appeler dem1 et leur demander d'ouvrir leur 120 tour pour mon arrivee
Marsh Posté le 27-01-2003 à 23:26:27
ReplyMarsh Posté le 27-01-2003 à 23:27:14
Hum un ptit mot en passant à Marc qui veut nous faire croire que les fonctionnalités de la Gf Fx (genre shaders 2.0+) sont un atout pour la carte.
Il semblerait qu'un ingénieur de Nvidia ait admis que la carte n'était pas assez puissante pour utiliser autant d'instructions au niveau des shaders 2.0 +
Amusant non
Marsh Posté le 27-01-2003 à 23:27:40
mikestewart a écrit : dans la série foutage de gueule :
|
N'empêche on sent qu'il y'a du 3dfx là dessous
Après :
- Le 32bpp on s'en fout du moment qu'on a 60 fps
Après :
- On a des textures toutes moches pourries avec un LOD Bias crado, mais on s'en fout, on a 32 bpp et 60 fps.
Voilà :
- Quoi ?? Vous pouvez parler plus fort
Marsh Posté le 27-01-2003 à 23:28:10
Blazkowicz a écrit : |
le monsieur n'est pas le directeur d'infogramme, ni le responsable des achats. ce n'st pas lui qu'il faut blamer
il a simplement raison en disant que les boites font des économies en ht des cartes et en les "bidouillants". c'est un fait, c'est tout
Marsh Posté le 27-01-2003 à 23:28:42
yoyo3d a écrit : Hum un ptit mot en passant à Marc qui veut nous faire croire que les fonctionnalités de la Gf Fx (genre shaders 2.0+) sont un atout pour la carte. |
non deja moins drole que la turbine qu'ils ont installes...mais bon le skecth continue et ne fait que commencer
Marsh Posté le 27-01-2003 à 23:29:32
ReplyMarsh Posté le 27-01-2003 à 23:30:21
ReplyMarsh Posté le 27-01-2003 à 23:30:42
Blazkowicz a écrit : |
comme ca m'arrive detre free donc g mes licences commerciales ...
Faut pas me chatouiller avec ca, c fais sufisment mal au fesse de claker autant
Marsh Posté le 27-01-2003 à 23:30:54
yoyo3d a écrit : Hum un ptit mot en passant à Marc qui veut nous faire croire que les fonctionnalités de la Gf Fx (genre shaders 2.0+) sont un atout pour la carte. |
Je l'ai noté aussi, il bossait au R&D, c'était 4-5 jours après l'annonce qui suivait le hype are you ready.
Marsh Posté le 27-01-2003 à 23:31:20
HAL a écrit : |
ils prennent le risque de bidouiller les cartes ? de perdre du temps (ce qui coute deja de l'argent et voir plus que les cartes vu leur salaire) et de perdre la garantie ? pour des boites qui brassent des millions et des millions...alors qu'ils doivent avoir ces cartes la au meme prix que l'on payent nous une gf44200 H.T. ? j'ai comme un doute
Marsh Posté le 27-01-2003 à 23:32:16
ReplyMarsh Posté le 27-01-2003 à 23:32:17
ATOS,
Quand on fait une citation, on la fait en entier, ou au moins, on ne coupe la phrase en 2...
Merci
Marsh Posté le 27-01-2003 à 23:32:55
Argh grâca à vous j'ai suivi l'évolution du bébé et j'étais passé faire part de mes grandes appréhension
Bin c pire que prévu
Enfin encore un mois et une semaine pour la dispo (normalement ) pis reste à savoir le prix définitif en ?
Conclusion : malgré quelques qualités, for a normal user, C'est ultra mort là
Marsh Posté le 27-01-2003 à 23:33:38
Sonark a écrit : |
Marsh Posté le 27-01-2003 à 23:33:50
reas0n a écrit : |
la bidouille en question ce fais par soft et prend 5 minutes ..
, renseigne toi, jvois pas comment la garantie sauterais...
Marsh Posté le 27-01-2003 à 23:33:56
reas0n a écrit : |
infogramme ne roule pas sur l'or, il ne faut pas confondre chiffre d'affaire et bénéfices.
moi l'info ne me choque pas.
Marsh Posté le 27-01-2003 à 23:34:19
Ouiaps, en attendant, je suis assez déçu du résultat du Test de Marc... Reste à voir avec des drivers optimisés, mais bon... ATI a fait du bon boulot, c'est clair. J'en reviens pas que la 9700 Pro tienne tout de même la comparaison. J'ai toujours eu des cartes NVidia et j'ai toujours pensé que les drivers ATI n'étaient pas tip-top... Mais là, si le R350 sort dans les temps, je vais sérieusement me reposer la question...
Marsh Posté le 27-01-2003 à 23:35:59
Franchement j'avais pas autant ri depuis la voodoo5 6000. espérons que les ingénieurs de 3dfx continueront à nous amuser chez Nvidia
A quand la GF Fx en sli?
Marsh Posté le 27-01-2003 à 23:36:13
kler.... de toutes façon il faut avant tout regarde le rapport QUALITE/PRIX les chtis ! ya que ça de vrai !
Marsh Posté le 27-01-2003 à 23:37:23
NM74 a écrit : Ouiaps, en attendant, je suis assez déçu du résultat du Test de Marc... Reste à voir avec des drivers optimisés, mais bon... ATI a fait du bon boulot, c'est clair. J'en reviens pas que la 9700 Pro tienne tout de même la comparaison. J'ai toujours eu des cartes NVidia et j'ai toujours pensé que les drivers ATI n'étaient pas tip-top... Mais là, si le R350 sort dans les temps, je vais sérieusement me reposer la question... |
Bah, tu sais, ça a pas mal changé ça
Marsh Posté le 27-01-2003 à 23:40:49
Clair, le début de la R8500 a été la dernière phase sombre des drv ATI.
Marsh Posté le 27-01-2003 à 23:40:51
HAL a écrit : |
j'tai mis le lien, je confond pas le C.A et le benefice, loin de la mais juste pour te dire qu'ils ont reussi en 1 an a gagner +200% sur la cote lorsqu'ils sont entres en bourse et que now ils ont les reins sacrements solides...
franchement avec le pouvoir d'achat qu'ils ont etc...j'pense qu'ils ont d'autres millions a fouetter que un malheureux temps de 1/2 million frs
j'te rappel que le monde du cinema (qui brassent deja des $) c'est de la gniogniotte compare au monde du jeu video, alors t'imagines spielberg achetes des webcams a la place des cameras
Marsh Posté le 27-01-2003 à 23:40:53
bah dfacon la roue tourne et c tant mieux chacun le sais
c meme dommage ke la parhelia ne sois pas ds la course, notre salut est dans la concurrence
ps: ca fais un moment ke jai dit ke jallais dormir
bn
Marsh Posté le 27-01-2003 à 23:41:39
Bah, Parlhelia II, on peut espérer un peu... Et le Delta Chrome, si ça fait pas comme les Xabre et autres CP4.
Marsh Posté le 27-01-2003 à 23:41:55
En exclu,les premiers prototypes de dissipateurs passifs pour geforce fx:
http://www.powerlabs.org/images/heatsink.jpg
L'ajout de l'heatpipe est prevu dans les semaines a venir
Marsh Posté le 27-01-2003 à 23:42:58
thacat a écrit : |
condoléances!
Marsh Posté le 27-01-2003 à 23:19:26
Reprise du premier post (génération automatique) :
3DChipset.com a posté des informations concernant les prochains chips 3D NVIDIA qu'il aurait obtenu grâce à l'aide d'une source proche du fabricant de Santa-Clara.
Selon ces mêmes informations le NV30 devrait être compatible AGP8X et Direct X9. Il devrait être couplé à de la mémoire DDR 900 MHz. Il pourra appliquer 16 textures/pixel et utilisera une nouvelle technologie de compression des couleurs (ratio 4:1). Les performances de ce nouveau chip devraient être deux fois supérieures à celles d'une GeForce4 Ti4600. Autre spécification, le NV30 proposera un connecteur FireWire qui pourra certainement être utilisé pour faire de l'acquisition vidéo.
Le NV31 devrait être version light du NV30 puisqu'il utilisera des fréquences de fonctionnement plus faibles, alors que le NV40 qui n'existe certainement que sur le papier pour l'instant, devrait offrir une puissance de gestion de 600 millions de polygones par seconde et un fillrate de 4 Gigapixels.
Bien sûr, en attendant les spécifications officielles, ces informations sont à prendre avec des pincettes.
Source : Clubic.com, Hardware.fr
De la bombe, le prix sera 2 fois supérieur aussi
Spécifications :
AGP 4x and 8x
-Copper Core GPU Processor 0.13 m default clock 450 MHz
-73 million transistors
-8 pipes
-128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit
-370Mhz RAMDAC
-DirectX 9.x compatible
-Quad Vertex Shaders
-Dual Pixel Shaders
-Lightspeed Memory Architecture III
-Quad Cache memory caching subsystem
-Dual Z-buffers for greater compression without losses visibility subsystem
-Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality.
-12nvx mode should deliver 80% better subpixel coverage and placement than previous modes
-Hardware bumpmapping
-4 Textures/Pixel in a single clock cycle, loop back can also apply an additional 4 textures per rendering pass
-A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and lighting)
-NVAutoShaper a new prechached and precacheable system
-Programmers can also add shapes to be temporarily stored in precache to speed things up
-Latest OpenGL
-Backward glide game capable thanks to NvBlur (Yes a new version of Glide!)
-NView Multi-display Technology
3D Chipset qui décidément n'aime pas les rumeurs ;-) a publié quelques informations concernant les prochains GPU de NVIDIA dont le NV30.
Selon son informateur le NV30 possédera une interface AGP 8X (ndlr : ce n'est pas un scoop, comment pourrait-il en être autrement ?) et exploitera de la SDRAM DDR 900 MHz. Si tel est le cas c'est mal barré pour NVIDIA qui compte sortir le NV30 cet Automne, car la société Infineon, le seul fabricant à avoir annoncé une mémoire DDR aussi véloce ne prévoit pas une production en quantité avant le quatrième trimestre 2002.
Le NV30 qui aurait visiblement bénéficié des connaissances des ex-ingénieurs de 3DFX serait exploitable en multi-chip.
En ce qui concerne les performances, le NV30 qui appliquera 16 textures/pixel par passe et utilisera une technique de compression des couleurs 4-1 serait deux fois plus puissant qu'une GeForce4 Ti 4600.De plus l'activation du FSAA 4X n'aurait aucun impact sur ses performances.
Enfin, et c'est peut être la fonctionnalité la plus étonnante du NV30, celui-ci disposerait d'une interface FireWire IEEE 1394 qui laisse présager que le NV30 sera capable de réaliser un encodage mpeg2 en temps réel.
Le NV31 serait un GPU possédant une architecture identique au NV30 avec des fréquences revues à la baisse. Quant au NV40 pour lequel peu d'informations ont filtré, NVIDIA viserait une puissance de 600 millions polygones par seconde pour un fill rate de 4 Gigapixel.
Le CineFX dans le NV30 de NVIDIA
Publié le 23/7/2002 par Vincent - Source : www.nvchips-fr.com
Face aux récentes annoncent du géant canadien ATI, NVIDIA s'en senti dans l'obligation de dévoiler quelques-unes des spécifications de son prochain chip : le NV30.
En effet selon ce document( http://developer.nvidia.com/docs/I [...] rdware.pdf ), le NV30 sera basé autour de l'architecture CineFX. Cette architecture proposera 16 unités de textures permettant d'offrir en théorie un texel fill rate deux fois plus élevé que celui du Radeon 9700 (doté d'une unité de texture pour chacun de ses 8 pipelines).
Le NV30 supportera Direct X9 et sera compatible avec la version 2.0+ des Vertex shaders qui proposera jusqu'à 65536 instructions (contre 1024 pour la version classique Vertex Shaders 2.0 qui sera intrégrée à DirectX 9).
Tandis que la version 2.0+ des Pixel Shaders également supportée proposera jusqu'à 1024 instructions de couleurs et 1024 instructions de textures contre respectivement 64 et 32 pour la version 2.0 classique de DirectX 9.
Pour rappel le NV30 sera gravé en 0.13 micron et devrait être proposé vers le mois de novembre, tandis que les premières cartes Radeon 9700 gravées en 0.15 micron devront être disponibles en septembre.
26/07/2002
Le site Beyond 3D a publié les premières spécifications que NVIDIA lui aurait communiquées en ce qui concerne son prochain chip 3D le NV30, spécifications que voici :
- Gravure 0.13 micron.
- Compatible AGP 8x.
- Support pour la mémoire DDR-II.
- Vertex Shaders et Pixels Shaders supportés dans leur version 2.0+.
- Supporte les extensions OpenGL pour la programmations étendues des Pixel Shader et Vertex Shader.
- Nouvelles technologies pour économiser et optimiser la bande passante mémoire.
- Supporte les couleurs codées sur 64 et 128-bits.
- Supporte une programmation 3D avancée et un langage de haut niveau en ce qui concerne les shaders.
- Sortie prévue cet automne avec la disponibilité de Direct X9.
30/07/2002
Source : http://hardware.actiontrip.com
NV30 aka "Omen" (Farewell GeForce, hello Demian)
AGP 4x and 8x
Copper Core GPU Processor 0.13 m default clock 450 MHz
73 million transistors
8 pipelines
128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit ; yeah 256 bit!
370Mhz RAMDAC
Direct X 9.X compatible
Quad Vertex Shaders
Dual Pixel Shaders
85 bone capable
Lightspeed Memory Architecture III
Quad Cache memory caching subsystem
Dual Z-buffers for greater compression without losses
Visibility sub-system
NvAuto advanced pre-charge
Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality.
12nvx mode should deliver 80% better subpixel coverage and placement than previous modes
Hardware bumpmapping
4 Textures/Pixel in a single clock cycle "loop back" can also apply an additional 4 textures per rendering pass
A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and Lighting) NVAutoShaper a new prechached and precacheable system
Programmers can also add shapes to be temporarily stored in precache to speed things up
Latest Open GL
Backward Glide game capable thanks to NvBlur (Yeah, new Glide!)
NView Multi-display Technology
Built in re-programmable DVD and TV decoder chip
15/11/2002
La dernière vidéo sur le site de NVIDIA dévoile un peu plus d'informations sur le NV30 puisqu'on peut voir quelques puces ... ainsi que 3 cartes comme vous pouvez le voir sur ce screenshot (désolé pour la qualité, mais la vidéo est en streaming) :
Comme vous pouvez le voir, la carte fait environ la longueur d'une GeForce4 Ti 4600 et est donc plus longue qu'une Radeon 9700. Les puces mémoires sont bien entendu de type BGA. Plus surprenante est la présence d'un connecteur dédié à recevoir une alimentation supplémentaire identique à celui que l'on trouvait sur les Voodoo5 5500 et similaire (en dehors de son format) à celui que l'on trouve sur les Radeon 9700 Pro. Malgré le passage en 0.13µ, les 125 Millions de transistors du NV30 consomme donc plus que ce que peut fournir le port AGP, ce qui laisse envisager une fréquence assez élevée.
Dans un tout autre registre, il est à noter que Geforcefx.com indique désormais qu'il n'est en aucun cas lié à la société NVIDIA. Rien n'est donc sûr en ce qui concerne le nom définitif du NV30.
Source : Harware.fr
Il semblerait hélas que les hard-core gamers doivent encore patienter, puisque le NV30, futur GPU fleuron de NVIDIA, ne sera vraisemblablement disponible que début 2003...
NVIDIA se concentre en effet sur l'amélioration de ses moyens de production afin de réduire les coûts de fabrication ce qui prendra un certain temps. Si certains développeurs chanceux ont pu avoir quelques exemplaires de NV30 dès février 2002, il n'en serait pas de même pour le commun des mortels qui devra attendre le début de l'année prochaine pour pouvoir ce procurer la bête dont le nom commerciale reste inconnu, même si certaines rumeurs font état de noms sympathiques.
D'après NVIDIA le coût de développement de la famille NV30 s'élève à près de 400 million de dollars : le fabricant fera donc tout pour rentabiliser cet investissement. Il semble de ce fait plausible de voir le NV30 décliné en versions NV31, NV34 & NV35. Les prochains chipsets NVIDIA intégreront vraisemblablement un module graphique hérité du NV3x.
Souce : Clubic
On apprend sur Reactor Critical que la prochaine puce graphique de nVIDIA connue jusqu'à présent sous le nom de code NV30 pourrait bien finalement s'appeler GeForceFX.
En effet le nom de domaine http://www.GeForceFX.com a d'ores et déjà été réservé. Cette information est bien entendue à prendre avec des pincettes, et pour se prononcer il vaut mieux attendre la semaine prochaine (le 18 novembre pour être précis) date à laquelle sera annoncée officiellement cette nouvelle puce.
Source : Blue-Hardware
18/11/2002
Après quelques reports, de nombreuses rumeurs et une attente qui n'en finissait plus, NVIDIA vient enfin de dévoiler son dernier poulain autrefois connu sous le nom de NV30. Un poulain qui, avant même son annonce officielle, est déjà sous le feu de la critique. Il doit en effet redorer le blason du chef de file de la 3D sur PC, quelque peu malmené ces derniers temps par un ATI Radeon 9700 Pro au leadership bien arrogant.
NVIDIA n'a pas pour habitude de recoller à un concurrent et c'est pourtant ce que tout le monde attend de la compagnie de Santa Clara depuis que l'adversaire canadien a mis sur le marché ce fameux Radeon 9700 Pro. Non content de ravir sa couronne au roi NVIDIA, ATI s'est même permis de la conserver durant plusieurs mois. La présentation officielle du NV30, maintenant appelé GeForce FX, qui s'est tenue aujourd'hui même devait remettre les choses à leur place...
Passage à la gravure 0.13 micron
Commençons cette rapide présentation par l'innovation qui a certainement fait couler le plus d'encre et qui semble être en grande partie responsable du retard de NVIDIA : le 0.13 micron. Alors qu'Intel et AMD sont déjà passés à cette finesse de gravure pour leurs processeurs respectifs, le GeForce FX est le premier composant graphique gravé aussi précisément. C'est le fondeur taiwanais TSMC qui se charge de la production des puces NVIDIA et c'est donc lui qui a connu quelques difficultés pour parvenir à ce niveau de précision de manière fiable.
Il faut dire que le GeForce FX est le composant le plus complexe jamais mis au point. Avec ses quelques 125 millions de transistors, il en compte, par exemple, presque trois fois plus qu'un Pentium 4 (55 millions pour les Northwood). On peut d'ailleurs dire que nous assistons ici à une refonte complète de l'architecture précédente des GPU NVIDIA, alors que le passage du GeForce3 au GeForce4 n'avait pas été l'occasion d'un tel bouleversement (augmentation du nombre de transistors assez faible : 57 millions à 63 millions). La compagnie de Santa Clara ne s'est donc pas contenté de mettre à niveau une ancienne conception !
Le GeForce FX sous toutes les coutures !
Avec une telle débauche de transistors la puissance brute du GeForce FX est impressionnante. Doté de 8 pipelines et de 2 TMUs, celui-ci devrait en effet pouvoir effectuer le rendu de 16 textures par passe et traiter 200 millions de triangles par seconde.
Les avantages du cuivre et de la DDR-II
NVIDIA et TSMC ont profité du passage au 0.13 micron pour apporter d'autres modifications à la conception du GeForce FX. Ces modifications ont principalement eu pour objectif d'améliorer la dissipation de la chaleur et la consommation électrique dans le but évident d'atteindre de la manière la plus stable possible de très hautes fréquences. Les deux compagnies ont de ce fait opté pour un design dit "flip chip", pour un remplacement de l'aluminium par le cuivre, bien meilleur conducteur, et pour l'intégration de transistors présentés comme 25% plus petits. Toutefois on peut émettre des doutes quant à l'effet bénéfique de la gravure 0,13µ sur la consommation électrique puisque les cartes reference design du NV30 de NVIDIA comportent toutes un connecteur Molex, l'AGP n'étant vraisemblablement pas en mesure de fournir une alimentation électrique suffisante.
Sans qu'aucune fréquence de fonctionnement n'ait pour le moment été annoncée de manière officielle, ces changements doivent permettre à NVIDIA d'atteindre la barrière mythique des 500 Mhz en fonctionnement. Cela restera évidemment à vérifier à l'arrivé des premières cartes mais laisse déjà une certaine marge de man?uvre face aux 325 MHz du Radeon 9700 Pro d'ATI (qui pourrait toutefois évoluer prochainement).
En plus d'être le premier à présenter un GPU en 0.13 micron, NVIDIA est également le premier à exploiter la toute récente mémoire DDR-II sur une carte distribuée à grande échelle. Il apparaît en effet très clairement que la DDR tel qu'on la connaît aujourd'hui approche de ses limites au moins en ce qui concerne les cartes graphiques. Depuis quelques temps déjà les constructeurs planchaient sur un successeur, ce sera très bientôt chose faite avec des temps d'accès largement inférieur et une fréquence de fonctionnement en nette augmentation.
Le premier modèle de carte basée sur le GeForce FX : notez sa longueur et le connecteur d'alimentation.
Même si ici aussi aucun chiffre n'a été communiqué, on parle de temps d'accès inférieurs à 2.5 ns d'abord puis très bientôt inférieurs à 2.0 ns alors que la fréquence atteindra vraisemblablement 1GHz ! Le seul petit bémol est que la DDR2 sera exploitée en 128-bits dans un premier temps avant que NVIDIA ne la fasse migrer en 256-bit dans une prochaine révision. L'architecture mémoire LightSpeed Memory Arhitecture employée par le GeForce FX passe en version 3.0 et devrait offrir une bande passante mémoire maximale de 48Go par seconde !
Si ces chiffres donnent le vertige, ils posent tout de même la question du prix de l'ensemble. Le passage en 0.13 micron est en effet plus ou moins sous le contrôle de NVIDIA qui peut, en quelque sorte, fixer comme il le veut le prix de son GPU, mais en revanche le coût d'une telle mémoire échappe complètement à la compagnie de Santa Clara...
Source : Clubic
Un système de refroidissement imposant !
19/11/2002
Photos des possibilités du GeForceFX :
http://www.nvidia.com/view.asp?PAGE=geforcefx_demos
20/11/2002
Le GeForce FX (NV30) se concrétise
C'est aujourd'hui que NVIDIA a présenté à la presse française son dernier bébé : le NV30 alias GeForce FX. La présentation, menée de main de maître par Geoff Ballew (chef produits GPU), a été pour nous l'occasion de voir de nos propres yeux le NV30 et de constater ses indéniables qualités, grâce aux démonstrations pétillantes de vie que NVIDIA a projeté.
Le GeForce FX offre réellement, avec les applications sachant en tirer parti, un niveau de réalisme digne des grandes productions hollywoodiennes et nous a laissé tout simplement bouche bée. Au cours de cette conférence nous avons pu grappiller de ci de là quelques informations que nous allons partager avec vous en exclusivité.
Durant cet evénement la presse en émoi a pu admirer et toucher la carte reference design à base de GeForce FX. En prenant la bête en main le moins que l'on puisse dire est que vous en aurez pour votre argent ! En effet l'imposant heat pipe en cuivre et son couple ventilateur/radiateur pèsent un poids non négligeable. Physiquement la carte est aussi longue qu'une GeForce 4 Ti4600 mais son système de refroidissement, inspiré de l'Abit OTES, occupera un slot PCI.
Certains constructeurs devraient heureusement proposer des GeForce FX avec un système de ventilation plus conventionnel. NVDIA a confirmé les fréquences de fonctionnement du monstre : le GPU tournera à 500MHz contre 1GHz pour la mémoire DDR2. Le timing mémoire devrait être de 2.0ns alors que le GPU intégrera en standard un moteur de décodage MPEG 100% matériel.
La carte sera probablement équipée de 128 Mo de mémoire au minimum. Il est cependant fort possible qu'une version 256 Mo soit au programme... De même NVIDIA pourrait annoncer de nouvelles déclinaisons du GeForce FX ce printemps et cet automne.
Côté disponibilité les versions finales du NV30 seront livrées fin décembre alors que la disponibilité massive des cartes GeForce FX devrait intervenir en février 2003. Enfin NVIDA a communiqué quelques résultats obtenus par la carte avec divers benchs.
Mode FSAA 4x
Mode FSAA 4x & Anisotropic 8x
Résultats communiqués par NVIDIA
Source : Clubic
Premiers Benchmark
http://www.maximumpc.com/features/ [...] 01-03.html
http://www.tecchannel.de/hardware/1109/