Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe !

Underclocking Geforce 8800 en mode 2D : - de conso et - de chauffe ! - Carte graphique - Hardware

Marsh Posté le 30-09-2007 à 16:35:14    

J'ai remarqué qu'avec Rivatuner on pouvait changer les fréquences 2D, qui fonctionnent également sous Vista avec aero.
J'ai alors mis les valeurs 2D au minimum : 288mhz pour le core (au lieu de 576),  675 pour les shaders (au lieu de 1350) et 450mhz pour la ram (au lieu de 900)

 

Résultat : température core à 52-53° au lieu de 58°, et ambiante à 45° au lieu de 49° !
Ca fait donc moins consommer et moins chauffer pour aucune différence sur les performances du bureau !!  :ouch:

 

Ma question : pourquoi Nvidia n'a-t-il même pas fait ça de base sur ces cartes graphiques ?! :sarcastic:

 

Par contre avec Rivatuner on ne peut modifier les fréquences ram différentes en 2D/3D, c'est un peu dommage...

 

Dans tous les cas, autant qu'on le fasse soi-même, on y gagne à tous les niveaux.  :jap:


Message édité par Prophet_ch le 30-09-2007 à 16:36:10
Reply

Marsh Posté le 30-09-2007 à 16:35:14   

Reply

Marsh Posté le 30-09-2007 à 16:42:40    

plus précisément, je dirais que le concept 2D/3D est une aberration, et les GPU devraient avoir un système d'économie d'energie bien plus poussé.
ce sera pour les prochaines génération :/

Reply

Marsh Posté le 30-09-2007 à 16:46:11    

C'est vrai !
Je trouve ça aberrant de consommer peut être 80w rien que sur la 8800GTX juste quand j'écris du texte sur Word 6h par jour !! :fou:
Quand on sait qu'avec un simple Geforce 5200 on obtient la même chose avec une consommation de peut être 20w sur le bureau et aucune chauffe.  :sweat:

 

Vive le gaspillage d'énergie...


Message édité par Prophet_ch le 30-09-2007 à 16:48:49
Reply

Marsh Posté le 30-09-2007 à 17:09:00    

il y clairement a y gagner:
 - sur le gpu:
- changement de fréquence par paliers, suivant la charge (après voir comment faire les heuristiques coté driver ou interne au gpu), avec la fréquence d'o/c comme un "super-palier":
le bios stoque un table de fréquence GPU/tension GPU par palier renseigné et validé par l'oem, le driver les utilise, et rajoute une entrée d'o/c utilisateur de couple fréquence/tension.
- activation des pipes à la volée...
 
 - sur la mémoire, idem tables de couples fréquence/tension validés, et gestion de banques mémoire par contrôleur DDR alimentées suivant l'utilisation mémoire.
quand on sera à 2Go de ram, mettons en 8 puces de 256Mo (donc 8 ou 4 canaux), sur les cartes 3d dans 1 an ou 3 ans au plus tard, ça sera utile.  
pouvoir alimenter que 256/512Mo de ram pour une utilisation bureautique, et alimentation par pavés de 256/512 avec réalimentation par couples de contrôleur/mémoire liés au contrôleur suivant la conso mémoire (et/ou la consommation en bande-passante mémoire, vu que si tu coupes des contrôleurs et sa mémoire, ça change la bande-passante globale, et faut invalider les données que l'entrelacement change ).
 
sur une carte 3D, invalider les données en mémoire vidéo de manière épisodique n'est pas un problème, c'est déjà le cas lors d'un alt-tab en direct3d 9, et le d3d 10 impose une certain niveau de virtualisation mémoire qui fait que l'app ne saurait même pas ce qui se passe.


Message édité par bjone le 30-09-2007 à 19:51:36
Reply

Marsh Posté le 30-09-2007 à 17:29:55    

sur nos mobo, dans le cas d'utilisation de plusieures barettes par canal (genre 4 barettes de 1Go sur deux canaux), le kernel pourrait ramener toutes les pages non-cache disque des barettes impaires dans l'espace des barettes paires ou dans le swap, puis couper l'alimentation des barettes impaires (ie faudrait un standard et la conception pour ça).  
en faisant attention à avoir les pages non-swappables de buffers DMA ou autre initialement dans l'espace des barettes paire.  
 
par contre couper tout un contrôleur et ses barettes est beaucoup plus complexe: il faudrait désentrelacer les données de manière quasi-atomique, ce qui pose énormément de problèmes de cohérence (dans le code du noyau qui s'occuperait de ça).
 
pour un GPU, couper certains de ses contrôleurs et les modules liés est faisaible, car la manière d'utiliser un GPU fait que l'on est relativement insensible à l'invalidation des données, mais pour un CPU ça peut revenir à se tirer un coup de fusil à pompe dans une jambe :D


Message édité par bjone le 30-09-2007 à 18:31:19
Reply

Marsh Posté le 30-09-2007 à 19:17:58    

bjone, je voulais juste te dire que j'ai rien capté à ce que tu racontais, mais ça a l'air pas con, comme ça vu de loin. sinon pour l'underclocking 2D je crois que ça a été abandonné avec la série 8.
 
euh sinon bjone, se tirer un coup de fusil à pompe dans une jambe ça doit faire mal non?


---------------
Topic vente:
Reply

Marsh Posté le 30-09-2007 à 19:47:06    

ouai ça fait mal, et en plus c'est plus dur pour marcher :D

Reply

Marsh Posté le 30-09-2007 à 19:52:58    

ben en meme temps les 8800gtx ces des betes de courses,c'est comme s'y on prenait un hummer pour aller au supermarche,vive la consommation en essence,mais attendons avec espoir les prochain GPU graver en 25nm :whistle:


Message édité par jiraya47 le 30-09-2007 à 19:53:28

---------------
---/nothing.../I WANNA BE A ROCKSTAR§§§---
Reply

Marsh Posté le 30-09-2007 à 20:05:54    

Oui mais la comparaison n'est pas valable ici.  
Un Core 2 Duo es très puissant tout en étant très économe, c'est largemment faisable !
 
Surtout qu'en changeant les fréquences 2D on y gagne déjà beaucoup, et je trouve vraiment absurde d'avoir abandonner ce procédé sur les Geforce 8, c'est un retour en arrière débile !  :pt1cable:

Reply

Marsh Posté le 02-10-2007 à 00:00:14    

:bounce:  
 
Je confirme que j'y gagne pas mal en degré et température, l'info devrait passer + loin, c'est super pratique (et écolo surtout !) :)

Reply

Marsh Posté le 02-10-2007 à 00:00:14   

Reply

Marsh Posté le 02-10-2007 à 21:43:23    

Pour les possesseurs de 8800 vous n'êtes pas intéressés ?
C'est pourtant tout con et tout bénéf.  :pt1cable:

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed