Pourquoi la GeForce 2 Ti supportera mieux les jeux de demain ?

Pourquoi la GeForce 2 Ti supportera mieux les jeux de demain ? - Hardware

Marsh Posté le 21-03-2002 à 17:07:23    

Salut,
 
On parle que la GeForce 4 MX440 est une merde, même si ces résultats sont largements suppérieurs à une GeForce 2 Ti et à une Radeon 7500.
Alors, pourquoi dis t'on qu'elle supportera moins bien les jeux de demain ? Pourquoi la Radeon 7500 et la GeForce 2 Ti les supporteront mieux ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:07:23   

Reply

Marsh Posté le 21-03-2002 à 17:09:38    

j'ai HT cette carte, vraiment très bien, pour les jeux de demain elle va viellir comme la génération GF2
 
la radeon 7500 -> au contraire plein de fonctions, mais detoute façon quand elles seront bien utilisées, ça va ramer

Reply

Marsh Posté le 21-03-2002 à 17:12:04    

Tu as acheté une GeForce 4 MX440 ? Tu as des jeux qui rament vraiment avec ou il y a des très gros bugs ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:16:16    

je dois dire qu j'ai pas eu le tps de bcp tester, je montais un config a un pote, il est super content et joue a MOHAA en 1280 avec tout a fond
 
t'as des perfs de ouf a très petit prix (950f) elle met hors jeu les GF2TI

Reply

Marsh Posté le 21-03-2002 à 17:18:41    

Ok, donc pour le moment, 1 pt pour la GeForce 4 MX440.
Alors, y'a plus personne pour m'expliquer pourquoi la Radeon 7500 et la GeForce 2 Ti supporteront mieux les jeux de demain ? :fuck:


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:30:36    

Alors ? :D


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:30:51    

Zabrak a écrit a écrit :

Ok, donc pour le moment, 1 pt pour la GeForce 4 MX440.
Alors, y'a plus personne pour m'expliquer pourquoi la Radeon 7500 et la GeForce 2 Ti supporteront mieux les jeux de demain ? :fuck:  




 
Mes condoleances pour celui qui a la GF4... :(  
En effet elle ne gere aucun type de Shaders(Pixel et Vertex Shaders) contrairement à une GF2 Ti.
Donc adieu Doom 3 par exemple. :jap:

Reply

Marsh Posté le 21-03-2002 à 17:36:18    

Ah, ca j'étais pas au courant.
Donc, pour les effets, on est à 1 Pt pour la GeForce2 Ti
 
Donc 1 pt partout.
 
D'autres avis ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:37:05    

Sans commentaire...
http://www.anandtech.com/video/sho [...] =1583&p=12
 
Juste un alors :
GF2ti
GPU : 250 (4 pipeline)
RAM : 200DDR (certifié 250)
 
GF4MX440 : 275 (2 pipelines :( )
RAM : 200DDR (certfie ? )
 
Sinon vive les GF3 :na:

 

[jfdsdjhfuetppo]--Message édité par fouge--[/jfdsdjhfuetppo]

Reply

Marsh Posté le 21-03-2002 à 17:40:27    

OK, 2 pts pour la GeForce 2 Ti
D'autres infos ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:40:27   

Reply

Marsh Posté le 21-03-2002 à 17:41:02    

Une GF4 MX c une GForce 2 overclockée, donc sa va plus vite maintenant, et ca ira aussi lentement plus tard. Mais c quand meme mieux que la GF2 ! suffit de voir les benchs.
 
fouge  :hello:  (sans puissance la maitrise ca sert à rien :) )

Reply

Marsh Posté le 21-03-2002 à 17:41:05    

parce que la geforce 4 mx ne prend pas en charge les shaders  
(c'est une nouvelle techno 3d)
 
contrairment au geforce 3 et 4 (normale) et ati 8500 qui elles les prennent en charge
 
la radeon 7500 ne prend pas en charge les shaders et la geforce 2 ti non plus

Reply

Marsh Posté le 21-03-2002 à 17:41:31    

depuis quand la GeForce2 gère les pixel shader ??
 
je croyais qu'elle gérait directx 7 moi .. pas le 8
 
David

Reply

Marsh Posté le 21-03-2002 à 17:41:47    

Drybread01 a écrit a écrit :

 
 
Mes condoleances pour celui qui a la GF4... :(  
En effet elle ne gere aucun type de Shaders(Pixel et Vertex Shaders) contrairement à une GF2 Ti.
Donc adieu Doom 3 par exemple. :jap:  




 
C nouveaux ça la GF2Ti gère des shader et puis quoi encore? :o

Reply

Marsh Posté le 21-03-2002 à 17:42:36    

Bon, ca remonte pour la GeForce 4 MX440.


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 17:45:50    

Tain les gars :non:  mais revisez un peu avant de dire n'importe quoi :sarcastic:  
Bon alors on reprend, EN GROS la gamme des Geforce4 MX SONT DES GF2 Ti AMELIOREES!!!!!!!!! :o  
Ni l'une ni l'autre ne supporteront pas plus les jeux de demains car elles possèdent toutes les 2 un support limité des Vertex Shaders et AUCUN support des Pixel Shaders, et c'est là où est le problème car les futurs jeux vont exploiter à 100% ces fonctions et donc seules les cartes de la génération de la Geforce 3 et supérieur supportent pleinement ces fonctions!
Etant un une Geforce2 Ti bien amélioré notament au niveau des fréquences du GPU et de la DDR et du Lightspeed Memory Architecture dérivé de la Geforce4 Ti(en gros ca permet d'économiser la bande passante mémoire donc meilleur perfs ;) ) les performances sont bien supérieures à une Geforce 2 Ti.
En fait le gros reproche que l'on fait à Nvidia c'est que si on peut comprendre qu'une carte sortie il y a quoi, environ 3 ans ne supporte pas ces fonctions est normale, en revanche c'est vraiment abuser qu'une carte sortie il y a 2 mois et portant le nom de Geforce4 ne les supporte pas! :o  
Voilà, c'est tout alors arretez un peu de dire n'importe quoi! :non:  
La Geforce4 MX est decevante (mais loin d'être nulle lorsque l'on a un budget serré! ;) ) parce qu'en faite ce n'est qu'une Geforce 2 Ti gonflé!  
Mais en tout cas entre une Geforce 2 Ti à 800F et une Geforce4 MX 440 à 1000F y a pas photo je prends la 4 MX :D , d'ailleurs c'est ce que j'ai fais pour mon 2ème PC et TOUS LES JEUX ACTUELS TOURNES IMPECCABLES! :)  
Pour ceux qui ont des doutes sur ce que je viens de dire, je les invite à BIEN RELIRE les articles de Marc paru récemment! ;)

 

[jfdsdjhfuetppo]--Message édité par dd83--[/jfdsdjhfuetppo]

Reply

Marsh Posté le 21-03-2002 à 17:48:15    

FFTDarker a écrit a écrit :

Une GF4 MX c une GForce 2 overclockée, donc sa va plus vite maintenant, et ca ira aussi lentement plus tard. Mais c quand meme mieux que la GF2 ! suffit de voir les benchs.
 
fouge  :hello:  (sans puissance la maitrise ca sert à rien :) )  




Correction : une GF4MX c'est une GF2MX overclockée couplée avec de la DDR.
 
On parle de jeux de demain :
Unreal Performance Test 2002 (1024x768x32)
NVIDIA GeForce3 Ti 200 : 55.5fps
NVIDIA GeForce2 Ti 200 : 37.8fps
NVIDIA GeForce4 MX 460 : 32.4fps
NVIDIA GeForce4 MX 440 : 25.8fps
 
FFTDarker>  :hello:  Je te maitrise sans puissance si je veux :D Ainsi que ton pote anonyme! :lol:
 
Et vive les GF3 :love:

 

[jfdsdjhfuetppo]--Message édité par fouge--[/jfdsdjhfuetppo]

Reply

Marsh Posté le 21-03-2002 à 18:01:01    

En tout cas il parait que la GF4MX souffre d'incomptabilité avec de nombreuses carte méres !  ;)

Reply

Marsh Posté le 21-03-2002 à 18:07:45    

:hello:
 
Da quoi, une GeForce 4 MX 440 qui mange une GeForce 2Ti en terme de perfs !!!!
 
Va falloir expliquer ca a ma 2 Ti alors because, elle ne doit pas le savoir et devrait freiner pour que la 4 lui passe devant :)
 
a+

Reply

Marsh Posté le 21-03-2002 à 18:33:55    

En fait le vrai truc c'est qu'une geforce 3 (TROIS) Ti supportera mieux les jeux de demain qu'une geforce4 MX, pas une geforce 2 Ti

Reply

Marsh Posté le 21-03-2002 à 18:42:17    

Bon, juste une question, les Pixels et Vertex Shaders, se sont juste des effets graphiques supplémentaires ? Donc, ce ne sera pas si grave si on ne profite pas de cette amélioration dans les jeux futurs ! Ou alors, c'est autre chose ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 18:57:25    

jusqu'aux geforce2, le moteur graphique des cartes étant un T&L simple! En gros, le GPU permettait non plus seulement l'affichage des objets 3D, mais une partie du calcul lui-même(T&L)! Donc on a implanté sur les cartes des fonctions qui soulagent le CPU!
L'arrivée des pixels et vertex shaders, permet aux programmeurs de programmer et de personnaliser les instructions T&L, et donc de créer leur propre routine 3D T&L !

Reply

Marsh Posté le 21-03-2002 à 19:11:02    

OK, ben je crois que comme j'ai pas l'argent pour acheter une GeForce 3 Ti200, je vais me prendre une MSI GeForce 4 MX440, vendu avec 3 jeux à 150 ?uros !


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 19:17:17    

Le problème c que dans 6 mois, 1ans les jeux utiliseront tous les Vertex Shader et dans ce cas soit la Carte le fait et c  traiter en Hardware soit elle les gère pas et c traiter par emulation logiciel.

Reply

Marsh Posté le 21-03-2002 à 19:19:46    

Dans 6 mois, je pense que la GeForce 3 Ti200 sera dépassée !
Donc, comme dans 6 mois c'est mon anniversaire, on verra à ce moment là pour une GeForce4 Ti4200 et pour le moment, on va donc garder cette p***** de GeForce 2 MX de m**** :gun:


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 19:20:57    

Zabrak a écrit a écrit :

Dans 6 mois, je pense que la GeForce 3 Ti200 sera dépassée !
Donc, comme dans 6 mois c'est mon anniversaire, on verra à ce moment là pour une GeForce4 Ti4200 et pour le moment, on va donc garder cette p***** de GeForce 2 MX de m**** :gun:  




 
Mais non ;)

Reply

Marsh Posté le 21-03-2002 à 19:21:32    

Zabrak a écrit a écrit :

OK, ben je crois que comme j'ai pas l'argent pour acheter une GeForce 3 Ti200, je vais me prendre une MSI GeForce 4 MX440, vendu avec 3 jeux à 150 ?uros !  




 
pour 50 ? de plus, tu as une Geforce3 Ti200

Reply

Marsh Posté le 21-03-2002 à 19:23:05    

Ou tu trouve une GeForce 3 Ti200 à 200 ?uros sur le net ? Si c'est pas sur un site de PDs, donne moi l'adresse maintenant !


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 19:24:05    

relax man !
http://www.ldlc.com

Reply

Marsh Posté le 21-03-2002 à 19:25:09    

Reply

Marsh Posté le 21-03-2002 à 19:28:49    

J'ai une G4 mx 440 (msi) est j'en suis content :love:

Reply

Marsh Posté le 21-03-2002 à 19:30:59    

Les Jeux qui sont fournis avec sont en français ?


---------------
:love: Natalie Portman :love:
Reply

Marsh Posté le 21-03-2002 à 19:46:58    

oui

Reply

Marsh Posté le 21-03-2002 à 19:49:25    

A en écouter certains, ds 6 mois une GF4mx 440 sera totalement larguée car il lui manque des fonctions primordiales....
Mouai mouai, seulement vous oubliez un "GROS" détail: les programmeurs ne sont pas dingues.Les jeux qui sortent sont fait pour tourner sur des machines grand public ! et non pas sur celle de Hardcore-gamers....ça fait belle lurette qu'ils auraient déposés le bilan lol
On disait la meme chose pour les gf2mx....certes ce n'est pas des foudre de guerre comparé à ce qui se fait, mais TOUS les jeux passent en 1024*768 !! pour peu qu'il y ait un cpu correct derrière (j'ai refilé ma Leadtek sh pro o/c à 230/260 :) à mon frangin et ça marche très bien: il est pas près de la changer pour le moment !!)

Reply

Marsh Posté le 21-03-2002 à 20:18:38    

Personne n aurait un comparatif de Geforce 2 Ti et Geforce 4 MX
 
Je vais rechercher mais il me semble que la différence est minime voire a l avantage de la Geforce 2 Ti
 
Je ne vous certifie rien mais je pense que la meilleure facon de conclure et repondre a une partie de ce topic serait le comparatif
 
JE vous propose donc de balancer les liens de sites qui font la compa GF2Ti / GF4 MX

Reply

Marsh Posté le 21-03-2002 à 21:17:38    

fouge a écrit a écrit :

Sans commentaire...
http://www.anandtech.com/video/sho [...] =1583&p=12
 
Juste un alors :
GF2ti
GPU : 250 (4 pipeline)
RAM : 200DDR (certifié 250)
 
GF4MX440 : 275 (2 pipelines :( )
RAM : 200DDR (certfie ? )
 
Sinon vive les GF3 :na:  
 
 




 
les tests anandtech  :sarcastic:  
va savoir ce qu'ils ont pris comme gf2ti
genre : http://www.anandtech.com/video/sho [...] =1583&p=11 c koi une gf2ti200?
pis ca se trouve la gf2ti qu'ils utilisent soit elle est o/c de base (y'a des suma par exemple qui ont des freq memoire élevées) soit ils l'o/c pdt les tests.
en tout cas je suis pas persuadés du bien-fondé de ces valeurs

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed