Focus : CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 ! [HFR] - HFR - Hardware
Marsh Posté le 29-06-2015 à 21:16:50 1
voila qui peut donner un image generale de ce que sera la future carte bi-gpu Fiji
d'ailleurs vu le scaling du crossfire, il ne serait pas plus interressant de faire un cross de 390x avec ses 8 go dans le cas ou on s'interresse a cette solution en comparo avec le sli 980ti?
Marsh Posté le 29-06-2015 à 21:40:25 0
C'est dommage pour le manque de mémoire, car en cross elle dépote
Marsh Posté le 29-06-2015 à 21:41:37 1
Un test pour savoir si le pci e limite les cartes c'est possible ?
Marsh Posté le 29-06-2015 à 21:53:07 1
sur TW3 enlever l'AA temporel ne règle pas tout, il y a encore des bugs graphiques visibles ici ou là, par exemple sur des textures métalliques ou sur certaines ombres (qui clignotent façon CRT 60Hz en fin de vie), ou à certains endroits le sol en terre devient comme transparent, enfin c'est largement jouable mais pas parfait.
Marsh Posté le 29-06-2015 à 22:03:28 1
Merci pour le taf Damien j'attend avec impatience, le moment ou on refera le test avec la fury OC (HBM compris) et des drivers potables
Marsh Posté le 29-06-2015 à 22:03:33 0
Citation : C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images. |
Je n'ai pas compris le raisonnement
Si l'on accélère le gpu le plus lent au niveau du plus rapide, on augmente la conso, non ?
Marsh Posté le 29-06-2015 à 22:17:47 1
Z Machine a écrit :
|
C'est l'inverse nvidia ralentie le gpu le plus rapide pour être au niveau du plus lent.
Si on le gpu le plus rapide calcule des images en plus pour rien.
ralentir un des 2 gpu réduit la consommation.
Marsh Posté le 29-06-2015 à 22:29:33 0
J'ai interprété "le gpu qui souffre le plus" = "le gpu le plus rapide"
Ce serait donc l'inverse ?
Marsh Posté le 29-06-2015 à 22:35:20 1
Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost.
Ce n'esp pas un offset qui modifie la courbe des freqs/tension, Nvidia limite juste la fréquence max, du coup la conso du gpu plus rapide peut être réduite nettement vu qu'il tournera à une faible tension.
Marsh Posté le 29-06-2015 à 22:36:41 1
Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire !
Marsh Posté le 29-06-2015 à 22:44:30 2
lulu-bleach a écrit : Je pense qu'il ne faut pas oublier que directX 12 est censé permettre de considérer un système comme celui ci comme une seule et unique carte graphique, et par conséquent une carte de 8Gb HBM, ce qui permettrait à la fury d'encore plus creuser l'écart en crossfire face au SLI de 980Ti, et de ne plus connaitre de limitation de mémoire ! |
non, déjà démonté 50 fois cet argument...
Marsh Posté le 29-06-2015 à 23:01:13 0
Parlant d'arguments t'as pas l'air d'en avoir McNulty... En revanche si tu peux expliquer pourquoi ça ne serait pas le cas je suis preneur !
Marsh Posté le 29-06-2015 à 23:14:32 0
R9 Fury X 4-Way CrossFire
http://www.legitreviews.com/wp-con [...] -furyx.jpg
Marsh Posté le 29-06-2015 à 23:31:54 0
excuser moi d'insister, parce que ca m'interresse:
D-Ther a écrit : |
meilleurs scaling du cross , pas de limitation de memoire. on devrait se rapprocher des perfs du SLI de 980ti pour un cout bien moindre? (pour du 4k ultra)
Marsh Posté le 29-06-2015 à 23:35:37 0
tridam a écrit : Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost. |
Merci Tridam, c'est clair maintenant
Marsh Posté le 29-06-2015 à 23:40:21 0
complètement clair , merci pour ce test , ce qui conforte mes pensées
Marsh Posté le 30-06-2015 à 02:30:04 0
C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais?
Marsh Posté le 30-06-2015 à 03:06:00 0
Ds9Defiant1701 a écrit : C'est possible un test des R9 300 un jour? Ou bien il n'y en aura jamais? |
C'est quoi ca : http://www.hardware.fr/focus/110/m [...] -test.html
Marsh Posté le 30-06-2015 à 04:05:01 0
McNulty a écrit : non, déjà démonté 50 fois cet argument... |
Par tridam par exemple:
http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
tridam a écrit : |
Marsh Posté le 30-06-2015 à 09:41:19 1
Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça.
Finalement plutôt pas mal le méga flop dont parlaient certains.
Marsh Posté le 30-06-2015 à 09:51:10 0
Ça serait effectivement intéressant de voir comment se comporte les R9 390, d'un côté plus de VRAM et de l'autre plus de watts à dissiper et un refroidissement classique...
Marsh Posté le 30-06-2015 à 09:58:27 1
La Titan X n'a pas d'intérêt face à la 980 Ti, si ce n'est les 12 Go pour des usages spécifiques, dès lors je ne vois pas l'intérêt d'une comparaison.
Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM, après 650-700W de CG dans un boitier hum...
Marsh Posté le 30-06-2015 à 10:04:37 0
il faudra revoir pour la config de tests, c'est pas la bonne:
Pour rappel, voici les détails de notre système de test :
Intel Core i7 3960X (HT off, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce 353.30 WHQL
Catalyst 15.15beta
C'est plutôt le pilote AMD Catalyst Display Driver version 15.15.1004 qui a été utilisé.
Sinon super test et toujours aussi détaillés.
Marsh Posté le 30-06-2015 à 10:14:35 0
Marc a écrit : Pour les 390X en CF, logiquement ce sera un peu au-dessus la 295X2 mais sans les soucis liés à la VRAM logiquement, après 650-700W de CG dans un boitier hum... |
C'est pas ca qui gene certains
D'ailleurs je suis tombé la dessus
http://www.tweaktown.com/tweakiped [...] index.html
Ensuite faut voir la légitimité des résultats, j'ai juste survolé
(d'ailleurs, zarb ils comparent meme pas a un sli....)
Marsh Posté le 30-06-2015 à 10:26:33 2
lulu1980 a écrit : Et comparé à une Titan X ça donne quoi? Car les tarifs ne sont pas si éloignés que ça. |
Le flop (qui n'en est pas un d'ailleurs, juste un fiasco comm) concerne déjà ceux qui pourraient se laisser aller à payer leur CG dans les 700€. S'il faut doubler cette somme pour effacer le "méga flop", on a dépassé le marché de niche, on est carrément dans le marché interstitiel.
Marsh Posté le 30-06-2015 à 10:53:08 6
En résumé, cette R9 Fuxy X est une excellente carte, tout comme la GTX 980 Ti ...
AMD et nVidia sont donc au coude à coude.. comme bien souvent.
Marsh Posté le 30-06-2015 à 10:57:36 0
Je suis curieux, quel est le volume de Fury X qui seront distribuées?
Pace qu'en fait on parles d'un carte qui n'est même pas disponible ou en stock très faible (chez LDLC la saphire stock : 1 pièce ...)
Marsh Posté le 30-06-2015 à 11:17:19 0
La mienne est en cours d'acheminement, hâte de tester la bête
Marsh Posté le 30-06-2015 à 11:33:16 0
D-Ther a écrit : |
760W sous BF4 avec des pointes à 805... j'ose pas imagine combien ça peut donner avec Anno 2070.
Marsh Posté le 30-06-2015 à 11:34:27 0
@ Tridam, j'ai une question à propos du scaling en multi-gpu et ceci dans une perspective non-gamer mais plus en terme de puissance brut en calcul brut en GPGPU et en me basant notamment sur cet article :
http://www.tomshardware.fr/article [...] 56669.html
et plus précisément sur ce passage : "Passer d’une à deux cartes accroît les performances de 82 %. Passer à trois cartes offre 50 % de performances en plus, contre seulement 30 % lorsque l’on installe la quatrième, selon les tests de l’ingénieur."
Si je prends une base 100 pour une carte, 2 cartes donnent 180. 50% de 180 produisent 90, ce qui fait donc 270. 30% de 270 font 90 ce qui va faire 360 avec 4 cartes. la progression est bien linéaire, non ?
En tout cas, c'est vraiment regrettable ces problèmes de bruit avec les pompes. On a l'impression qu'il n'existe pas de suivi d'un produit de A à Z chez AMD.
Marsh Posté le 30-06-2015 à 11:35:28 1
"AMD nous a indiqué que son approche prioritaire était de travailler avec les développeurs pour s'assurer d'un comportement plus efficace de leurs jeux vis-à-vis de l'utilisation mémoire. Une approche idéale mais qui peut avoir ses limites si tous n'acceptent pas de faire des efforts."
D'autant plus qu'ils ne peuvent pas traiter tous les jeux qui sortent, y'en a juste trop. Ils drevront laisser de cote les indes je pense. Ou alors ils feront l'opti directement sur les moteurs très populaires(Unreal Engine, cryEngine, Unity, Source ?) et indépendamment les AAA avec des moteurs maison.
Mais je vois ca peu probable.
En tout cas AMD a fait du chemin sur son CrossFire. On est loin du lancement de la 7990. Moins de memoire, moins balese que la concurrence en 1vs1, et pourtant une moyenne notablement plus haute en CF 4K, meme avec des jeux vraiment pas en leur faveur. Chapeau bas.
Marsh Posté le 30-06-2015 à 11:42:49 0
@greenboro, si tu veut faire du GPGPU utilise deux R9 390X, surtout en double précision c'est plus performants.
Marsh Posté le 30-06-2015 à 11:47:05 0
Question : une Radeon FuryX consomme combien sur le rail +12V (PCI-E) ? Et une Radeon 290(X) ?
Ma Seasonic M12II 82+ - 620W pourrait-elle passer avec l'une de ces cartes ? (pas de CFx pour moi et je jouerai en 1080p)
Marsh Posté le 30-06-2015 à 11:51:34 0
Je trouve que l'augmentation des prix de AMD n'est pas justifiée, la r9 fury coûte 750 euros ! , soit 150 euros plus cher qu'une Bonne gtx 980 (on peut aller jusqu'à 550 euros), De plus, avec un crossfire de Fury, vaut mieux préparer la 2000 watts platinum x)
Marsh Posté le 30-06-2015 à 11:53:02 0
Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html
Jusqu'à 301 watts sur le deuxième sample.
Marsh Posté le 30-06-2015 à 11:58:30 0
Si il y a une table de clocking et tension qui va avec dans le bios titan x ou 980
tridam a écrit : Le GPU qui souffre le plus c'est celui qui consomme ou chauffe le plus et qui est donc le plus limité par gou boost. |
Marsh Posté le 30-06-2015 à 12:19:04 0
lapin a écrit : Je crois que la r9 fury x consomme un peux plus, http://www.hardware.fr/articles/93 [...] tique.html |
Malheureusement, cela ne me donne pas l'ampérage nécessaire sur les rails PCI-E des alims (la mienne serai normalement dotée de deux rails 24A). Si ça demande plus, je serai obligé de changer d'alim, chose qui je me réjouierai pas des masses ...
Marsh Posté le 29-06-2015 à 21:05:02 2
Ayant eu l'opportunité d'avoir deux Radeon R9 Fury X à notre disposition, nous avons bien entendu voulu observer comment elles se comportaient en CrossFire face aux GeForce GTX
Lire la suite ...