Tri SLI GTX 580

Tri SLI GTX 580 - Carte graphique - Hardware

Marsh Posté le 30-03-2012 à 22:09:42    

Bonsoir à tous.
 
Je possède actuellement un SLI de GTX 580 avec un écra, ASUS 26" en 1920 x 1200. J'aimerais acheter un deuxième écran similaire, et j'aimerais donc acheter une troisième GTX 580 pour pouvoir jouer en multi-ecran. J'aimerais avoir avis concernant la puissance de mon CPU. Je possède un core I7 920 @ 4.2 Ghz, et je vous savoir si vous pensiez qu'il serait suffisant pour suivre les 3 GTX 580?
 
Merci d'avance.

Reply

Marsh Posté le 30-03-2012 à 22:09:42   

Reply

Marsh Posté le 30-03-2012 à 22:20:30    

up

Reply

Marsh Posté le 30-03-2012 à 22:38:33    

up

Reply

Marsh Posté le 30-03-2012 à 22:48:42    

Je dirais oui vu que tu vas monter en réso , cela influence surtout le GPU.
 
Par contre je ne vois pas trop l'intérèt de faire du dual-screen pour jouer autant faire du surround.


---------------
Ma cinémathèque
Reply

Marsh Posté le 30-03-2012 à 22:59:27    

Le deuxième me sert pour bosser, je fais de la DAO. En par la même occasion, lorsque je jouerais, je profiterais donc de ce deuxième écran.
J'ai trouvé une GTX 580 pour 300 euros neuve., et j'aimerais donc en profiter. Mais le problème est de savoir si mon core I7 920 cadencé à 4.2 Ghz serait suffisant pour exploiter 3 GTX 580, ou alors si le gain serait très minime. Je ne trouve aucun site faisant le test de ce tri SLI avec un core I7 @ 4.2 Ghz.
 
Si le gain est très minime avec une troisième carte, je ne la prendrais pas, et la question ne se posera plus.
 
J'aimerais avoir vos avis messieurs svp.

Reply

Marsh Posté le 30-03-2012 à 23:34:04    

Prend la dans un premier temps avec l'écran. Je pense que la différence se fera sentir quand même.
Rien ne t’empêche de prendre un troisième écran plus tard parce qu'à mon avis tu auras envie de goûter au surround par la suite.
Et même si ton 920 a encore de beaux reste, je pense pas que tu le garde à vie et qu'un jour tu passeras au fameux socket 2011 vu que tu a l'air d'aimer la performance.
Par contre sache que le triSLI n'est pas supporté à 100% par de nombreux jeux (mais plus par les logiciels pro...).
Et pense aussi à ton alim qui va devoir suivre la cadence!!


Message édité par Duduss08 le 30-03-2012 à 23:35:06
Reply

Marsh Posté le 30-03-2012 à 23:49:17    

merci duduss08. Oui j'aime la performance. En fait les logiciel DAO que j'utilise ne prenne pas en compte le mutli GPU. comme je l'ai dis plus haut j'achète en priorité ce deuxième écran pour travailler. Après, il est vrai que je suis aussi tenté de jouer sur deux écran (je n'ai jamais essayé). Je pense aussi qu'un 3ème GPU ferait la différence, mais je pense que je vais d'abord acheter l'écran seul, je vais tester un peu, et voir ensuite si je prends la 3ème carte. (Il y'a des soldes et les GTX 580 sont à 300 euros!)

Reply

Marsh Posté le 30-03-2012 à 23:55:49    

et elles n'ont pas fini de baisser avec cette incroyable 680 qui est sortie!

Reply

Marsh Posté le 31-03-2012 à 11:28:31    

Bonjours. J'aurais une dernière question à vous poser messieurs. Je ne veux pas créer de nouveau sujet pour ça.
Comment va se passer la gestion des deux écrans avec les 3 cartes?
Les 3 cartes vont se partager les deux écran en 3 parties identiques? ou alors les deux premières carte vont gérer les deux écran, et la troisième va aider les deux autres?
 
Merci d'avance.

Reply

Marsh Posté le 31-03-2012 à 13:26:00    

up svp

Reply

Marsh Posté le 31-03-2012 à 13:26:00   

Reply

Marsh Posté le 31-03-2012 à 13:44:41    

Dream0386 a écrit :

Le deuxième me sert pour bosser, je fais de la DAO. En par la même occasion, lorsque je jouerais, je profiterais donc de ce deuxième écran.
J'ai trouvé une GTX 580 pour 300 euros neuve., et j'aimerais donc en profiter. Mais le problème est de savoir si mon core I7 920 cadencé à 4.2 Ghz serait suffisant pour exploiter 3 GTX 580, ou alors si le gain serait très minime. Je ne trouve aucun site faisant le test de ce tri SLI avec un core I7 @ 4.2 Ghz.
 
Si le gain est très minime avec une troisième carte, je ne la prendrais pas, et la question ne se posera plus.
 
J'aimerais avoir vos avis messieurs svp.

arf ok vu ton utilisation , je ne ferais pas le pas.
On a peu près la mème config...
Tes 580 sont en aircooling ou watercooling ? (il faut aussi prendre en compte qu'en aircooling le tri-SLI sera nettement plus bruyant)
 
Je ne suis pas spécialiste en DAO mais il me semble que ce serait mieux de passer plutot à un 2600k et tu conserves ton SLI de 580 ;)


---------------
Ma cinémathèque
Reply

Marsh Posté le 31-03-2012 à 13:51:01    

En fait Space, la DAO ne tire pas parti du SLI ou Tri SLI (en core moins lol).
 
Je veux aussi jouer, et même avec mon SLI, mon CPU n'est pas utilisé à 100 % donc je pense que j'ai un peu de marge ( j'ai fais pas mal de test cette nuit et ce matin). J'ai vu des benchs 3D Mark 2011 avec des Tri SLI de GTX 580 et des i7 920 @ 4.2 Ghz, et ce CPU en as encore sous le pieds. (Désolé je n'ai pe être as assez cherché avant de poster ce topic). Prendre un 2600K me coutera plus cher que d'acheter une autre GTX 580 (il y'a des solde et on trouve cette carte à 300 euros)  
 
Niveau refroidissement, je suis d'accord avec toi, je vois déja qu'avec seulement deux cartes, les cartes sont assez bruyantes, mais peu importe, moi je ne suis pas à cheval sur le bruit, si mon PC fait un peu plus de bruit, c'est pas grave. Dans quelques temps je compte de toute façon passer au watercooling.

Reply

Marsh Posté le 31-03-2012 à 18:54:35    

tu vas endommager tes carte surtout selle du milieu


Message édité par Profil supprimé le 31-03-2012 à 18:54:48
Reply

Marsh Posté le 31-03-2012 à 20:01:13    

oui, tu as sans doute raison pro_vs mais je ne compte pas o/c mes cartes (enfin pas tant que j'aurais un wc). Je ne pense pas que mes deux cartes me permettent de jouer en max settings sur ces deux écrans. J'aurais une résolution de 3840 x 1920, ce qui est pas mal déja.

Reply

Marsh Posté le 31-03-2012 à 20:16:08    

Dream0386 a écrit :

En fait Space, la DAO ne tire pas parti du SLI ou Tri SLI (en core moins lol).
 

je sais c'est pour cette raison que je t'indiquais de passer au 2600k ;)


---------------
Ma cinémathèque
Reply

Marsh Posté le 01-04-2012 à 02:06:23    

Salut Dream. Pour ta question sur le fonctionnement du sli ou du tri sli les cartes se partagent le travail. Dans la théorie la 1ere calcule la 1ere image, la seconde la 2eme image puis la 3eme carte calcule la 3eme image, la 1ere carte la 4eme image et ainsi de suite dans le meilleur des monde.
Dans la réalité c'est pas tout à fait comme ça.
Suivant les drivers et suivant les moteur 3D et suivant les API(directX...) certaine tache sont séparées d'autre pas. Enfin c'est un vrai merdier à gérer et c'est bien pour ça que rajouter une carte ne double pas les performances mais améliore d'environ 80%. La 3eme n'apporte en général pas plus de 60% de gain.
Mais encore une fois, tout dépend des drivers et de la gestion du jeu.
 
 
Pour la réponse de pro_vs, si tes cartes ne chauffent pas, aucune raison qu'elles se détériorent. Mais pense à rajouter un ventilo latéral pour amener directement l'air frais sur les Gpu car c'est vrai que c'est pas l'idéal quand elles sont trop serrées.
Tes cartes on un design stock ou modifié?


Message édité par Duduss08 le 01-04-2012 à 02:07:05
Reply

Marsh Posté le 01-04-2012 à 08:09:58    

Merci duduss08 pour ton explication. J'aurais appris quelque chose aujourd'hui lol. Mes cartes sont collées, mais j'ai déja un ventilo de 200mm sur le côté du boitier. Actuellement, la carte du haut, (la moins bien refroidie) ne dépasse jamais les 92° et en plus sous furmark durant 1h00. Oui j'ai le design de référence (ce qui selon moi est mieux pour du SLI car l'air chaud est rejeté à l'arrière). Sur les design modifiés, l'air chaud est rejeté en bas dans le boitier).


Message édité par Dream0386 le 01-04-2012 à 08:12:49
Reply

Marsh Posté le 01-04-2012 à 11:06:57    

Exact :)

Reply

Marsh Posté le 01-04-2012 à 14:38:22    

Merci d'avoir donné ton avis duduss08

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed