Températures et Voltage CPU I5 3570K [AIDE] - CPU - Overclocking, Cooling & Modding
Marsh Posté le 19-04-2013 à 23:45:28
Vcore en auto?
1,29v pour un ivy, faudrait pas aller plus haut.
Edit: temp cpu Ok
temp gpu: c'est très frais
Marsh Posté le 20-04-2013 à 09:22:32
Oui vcore en auto. C'est un pré reglage d'usine pour overclock en 4.4 sur la z77 extreme 4. Je devrais changer ? Quel sont les conséquences de ce vcore ?
Marsh Posté le 20-04-2013 à 18:21:39
La conséquence d'un haut Vcore c'est la diminution de la durée de vie de la puce, mais bon vu la gravure actuelle, c'est de la légende ancienne, j'ai déjà vu des i5 3570K tourner à 1.42V à 5 GHz sans soucis depuis 1 an
Marsh Posté le 20-04-2013 à 19:04:06
Ok donc si je comprends bien le principe de loverclock cest de monter les hz en jouant avec le voltage pour pas que sa chauffe trop au dessus de 65degres mais pas metre trop de vcore pour par survolter le processeur. Donc baisser au max le vcore pour que ce soit stable.
Jai bon ?
Comment connaitre les valeurs stock du 3570k ?
Et quen est il de la carte graphique ? Temperature max ? Voltage max ?
Marsh Posté le 20-04-2013 à 19:25:25
Sur un 3570 on conseille de pas dépasser les 1,30v en vcore, de toute façon au-dela faut un sacré refroidissement pour rester sous les 90 degrés en charge (occt linpack avx)
Marsh Posté le 20-04-2013 à 19:27:49
Tu peux utiliser Trixx pour OC ta carte graphique.
C'est quoi ton refroidissement CPU?
Marsh Posté le 20-04-2013 à 20:00:03
Jutilise ccc pour la carte graphique et jai un ventirad hyper212 evo
Marsh Posté le 20-04-2013 à 20:56:09
Perso je ne changerai rien a ta place, et tenterai meme surment un 4.5ghz... c'est pas énorme du tout 1.29v ! j'ai un 2700k qui tourne depuis presque 2 ans a 4.8ghz 1.4V, evidemment la durée de vie va diminuer, mais je compte pas garder ce cpu 10 piges et je pense que l'auteur du topic non plus. je m'aventurerai pas a lui mettre 1.5V h24 mais tant que la température est maitrisé je me prend pas la tete avec quelques 0.01v
Marsh Posté le 21-04-2013 à 19:14:03
chrisnomore a écrit : Jutilise ccc pour la carte graphique et jai un ventirad hyper212 evo |
OK et tu stress avec quoi?
(J'ai quasi pareil la même config que toi )
Marsh Posté le 22-04-2013 à 00:27:12
je ne stress pas mais je minforme sur le sujet et les voltages
juste connaitre les voltages conseille
Marsh Posté le 22-04-2013 à 09:23:53
chrisnomore a écrit : je ne stress pas mais je minforme sur le sujet et les voltages |
Quand je parle de stress, c'est au sujet du soft qui stress le proco hein
Genre:
C'est soft permettent de "valider/tester" la stabilité de ton oc
Marsh Posté le 22-04-2013 à 22:58:13
lol, javais pas compris... petite question jai un prog avc ma carte mere qui sert a overclock le cpu et jai lu que ces prog etaient deconseille car mauvais pour les composants ? mythe ou realité ?
un vcore a 1,20 avc un oc a 4.2 cest pas trop mal non ?
Marsh Posté le 22-04-2013 à 23:32:23
C'est mieux d'oc par le BIOS en effet.
4.2Ghz @ 1.20v c'est pas mal, faut faire attention au t°
Marsh Posté le 23-04-2013 à 16:23:09
Perso je suis a 4, 4ghz pour un vcore de 1.16v, aller au dela me semble inutile vu mon usage jeux, internet et films...
A ta place je focaliserai sur une fréquence bien définie (4.2 ou 4.4 ghz) et je testerai en baissant le vcore pas a pas
Marsh Posté le 23-04-2013 à 19:17:26
TealeaF a écrit : |
chrisnomore a écrit : je ne stress pas mais je minforme |
Marsh Posté le 25-04-2013 à 21:23:10
salut a tous
pour ma part je tourne a 4.5 Ghz sous 1.26 de Vcore (testé un peut en dessous plantage avec BF3 + blue screen) 1.26 nickel niveau T° je suis a 33° en Idle
amitiés J-p
Marsh Posté le 19-04-2013 à 23:16:17
Bonsoir,
Je débute dans l'overclocking,
Je dispose d'un I5 3570K avec carte mère Asrock Z77 Extreme 4
Ma carte graphique est une Sapphire 7950 Vapor X OC.
j'ai monter le Processeur en 4.4Ghz
Pouvez vous me dire si les températeures des CPU et GPU sont bonne ?
J'ai mis en route Battlefield 3 tout à fond pour avoir ces donnés.
Le voltage ou la température obtenue ne risque pas de fusiller mon CPU ou GPU ?
Merci.