[HFR] Actu : Skylake-K en LGA dès le troisième trimestre ?

Actu : Skylake-K en LGA dès le troisième trimestre ? [HFR] - HFR - Hardware

Marsh Posté le 01-02-2015 à 12:55:02   1  

VR-Zone, généralement bien informé, publie un extrait d'une roadmap Intel qui donne quelques détails sur les lancements à venir. Le lancement de Broadwell en ...
Lire la suite ...

Reply

Marsh Posté le 01-02-2015 à 12:55:02   

Reply

Marsh Posté le 01-02-2015 à 13:15:28   0  

Allez, plus que 2-3 semaines et Broadwell disparait totalement de la roadmap desktop :o
 
Broadwell-E pourrait subsister vu qu'il dérive des CPU serveurs et donc adaptés à des cores typés "basse conso", mais c'est même pas encore certain... c'est loin 2016.

Reply

Marsh Posté le 01-02-2015 à 13:56:40   0  

Peut-on m'expliquer l'utilité de Broadwell avec la sortie de skylake aussi proche ??
La seule raison que j'ai trouvé c'est de permettre aux personnes qui ont déjà le 1150 d'y rester. Pour les autres direction skylake ou 'AMD Zen' (pour les plus patients).
 
Et dernière question les notifications 'QC', 'DC', '8C', ... . Ca veut dire quoi ? quad core, Dual core, ect .. c'est ça ??
 
Bon dimanche

Reply

Marsh Posté le 01-02-2015 à 14:01:52   2  

cef a écrit :

Peut-on m'expliquer l'utilité de Broadwell avec la sortie de skylake aussi proche ??


Donner l'illusion que le LGA1150 n'est pas EOL...

 

Pour l'interrogation DC/QC/8C, gagné.


Message édité par Gigathlon le 01-02-2015 à 14:02:20
Reply

Marsh Posté le 01-02-2015 à 14:23:01   0  

Du coup on aura quand du skylake pour pc portable ??


Message édité par Feuke202x le 01-02-2015 à 14:23:19
Reply

Marsh Posté le 01-02-2015 à 14:51:50   1  

Feuke202x a écrit :

Du coup on aura quand du skylake pour pc portable ??


 
oui Skylake U au 3ieme trimestre d'apres le document

Reply

Marsh Posté le 01-02-2015 à 14:53:37   1  

Feuke202x a écrit :

Du coup on aura quand du skylake pour pc portable ??


Visiblement pour la rentrée 2015, et moi je conseillerais de ne pas prendre de Broadwell à ce point si on peut l'éviter: Sky Lake va amener AVX 3.2 (512bits) avec lui et ça va être chaud pour les logiciels adaptés quand ils sortiront!

Reply

Marsh Posté le 01-02-2015 à 14:55:14   1  

ouam49 a écrit :


 
oui Skylake U au 3ieme trimestre d'apres le document


 
Merci mais ce ne sera pas du 4C/8T comme les xxxxQM  ?
 
Edit : DC pour 2 Coeurs/4T et QC pour 4 coeurs/8T ?


Message édité par Feuke202x le 01-02-2015 à 14:58:44
Reply

Marsh Posté le 01-02-2015 à 14:58:17   1  

Probablement mais ces versions ne sont pas sur la roadmap, comme d'ailleurs les Broadwell équivalents qui doivent sortir en fin de second trimestre.

Reply

Marsh Posté le 01-02-2015 à 15:00:18   0  

Si les broadwell QM ne sont toujours pas sortis, on a encore le temps pour avoir du skylake en version QM dans nos chères PC portables !

Reply

Marsh Posté le 01-02-2015 à 15:00:18   

Reply

Marsh Posté le 01-02-2015 à 15:12:23   1  

Pas forcément, Sklylake ne subira pas les errements du 14nm qu'a subit Broadwell et qui explique entre autre le retard des versions les plus grosses.

Reply

Marsh Posté le 01-02-2015 à 15:21:29   0  

Impatient de voir ça alors !  :jap:

Reply

Marsh Posté le 01-02-2015 à 15:36:08   1  

Marc a écrit :

Pas forcément, Sklylake ne subira pas les errements du 14nm qu'a subit Broadwell et qui explique entre autre le retard des versions les plus grosses.


Si il n'y a pas tout simplement eu une segmentation ULV/HP très tôt dans la conception de ces tick/tock...

 

Broadwell étant grossièrement un shrink de Haswell, ils ont vite eu connaissance des soucis que ça pourrait poser et ont pu décider aussitôt de ne pas faire trop de boulot dessus en en limitant le spectre d'utilisation.

 

Si le rythme était encore soutenable, je miserais sur une alternance (desktop node 1 -> mobile node 2)/(desktop node 2 -> mobile node 3) puisqu'il est plus facile de faire un shrink ULV que HP, mais bon, vu qu'on approche de la limite...


Message édité par Gigathlon le 01-02-2015 à 15:36:36
Reply

Marsh Posté le 01-02-2015 à 18:34:13   1  

Citation :

Il y aura par contre de nombreuses lignes partagées, ce qui fait qu'on ne dispose "que" de 8 lignes si on utilise les 10 USB 3.0 et les 6 SATA.


Arrête de remuer le couteau dans la plaie Marc :o :o :o

cef a écrit :

Peut-on m'expliquer l'utilité de Broadwell avec la sortie de skylake aussi proche ??


L'ego probablement, ne pas vouloir admettre que leur tick-tock a eu un foirage, étrange dans le milieu où seul l'argent compte en principe. Pourtant ce n'est pas bien grave, au bout de plusieurs Tick-Tock et l'accumulation de petits retards il est normal qu'il y ait des ajustements à faire.
 
Enfin bref, je ne vois aucun mal à la coexistence du Broadwell en // des Skylake, à condition que Skylake ne soit pas retardé. Si ca peut au moins donner des possibilités d'upgrade peur ceux ayant une mobo à chipset série 9, ben tant mieux.


Message édité par fredo3 le 01-02-2015 à 18:36:09
Reply

Marsh Posté le 01-02-2015 à 18:43:23   1  

Ah c'est clair, on ne va pas se plaindre, surtout qu'il est sûr maintenant que ça n'occasionnera pas de retard pour Skylake.
 
Par contre on va payer la facture de leur entêtement et de ne pas avoir réagi plus tôt, car les Broadwell seront vendus en faible volume, inévitablement ça a un coût.
La sortie des chipset serie 9 aura été le point de non retour, le marketing a encore gagné.
 
edit:
oh ce vilain delete :o


Message édité par fredo3 le 01-02-2015 à 19:53:29
Reply

Marsh Posté le 01-02-2015 à 19:57:35   0  

Pour le Broadwell-K, il aura en particulier 128Mo de L4 sur un second die ce qui peut avoir beaucoup d'intérêt en fonction de l'application, ou peut-être pas tellement. Mais ça a le mérite de fonctionner tout le temps (alors que l'AVX 512 se rajoute à la longue liste des x87, SSE2, SSE3, AVX, AVX2) et peut-être d'améliorer la performance single-thread.

Reply

Marsh Posté le 01-02-2015 à 22:49:03   0  

Vais-je enfin trouver un successeur à on 2600k qui vient d'avoir 4 ans :D ?

Reply

Marsh Posté le 01-02-2015 à 22:54:30   1  

Y'a des chances... vers octobre :o

Reply

Marsh Posté le 02-02-2015 à 02:31:03   0  

Hâte de lire les tests, un peu déçu d'Intel après le flop (notamment en OC) de Devils Canyon.

Reply

Marsh Posté le 02-02-2015 à 10:33:45   1  

Par contre, je n'ai pas bien saisi, faudra-t-il en plus de la carte mère, changer de mémoire pour de la DDR4?

Reply

Marsh Posté le 02-02-2015 à 10:35:37   0  

Je suis un peu déçu qu'Intel se cantonne au quad core pour le grand public, alors que le quad-core (hors HT) est quand même présent depuis le 65 nm. J'espère qu'il y aura du nouveau en 2016...

Reply

Marsh Posté le 02-02-2015 à 15:27:10   0  

Que sont les shrinks ULV et HP ? I die shrink je vois ce que c'est mais pas plus. :)

Reply

Marsh Posté le 02-02-2015 à 15:37:40   0  

Yog Sothoth a écrit :

Que sont les shrinks ULV et HP ? I die shrink je vois ce que c'est mais pas plus. :)


Ce que je disais, c'est juste que dériver une archi Haute Performance en Ultra Low Voltage en utilisant un process plus avancé est plus facile que de faire les 2 à la fois. C'est vaguement ce qui a fait les Pentium M à l'époque (même si des morceaux de Netburst avaient rejoint les morceaux de P6).
 
Ivy Bridge/Haswell et Broadwell ne se démarquent pas vraiment de Sandy Bridge en terme de perfs (électroniquement parlant), mais la conso a baissé assez sensiblement, car les process post-32nm dévient de plus en plus vers des caractéristiques les destinant au monde "mobile". Partant de là, il n'y a rien de très compliqué à imaginer que Skylake n'est en réalité pas voué à remplacer Broadwell, mais à succéder à Haswell sur desktop pendant que Broadwell aura en charge le marché mobile.
 
GlobalFoundries et TSMC ont exactement le même "problème", à voir ce qu'ils proposent au-delà du 28nm.

Reply

Marsh Posté le 02-02-2015 à 15:51:37   0  

Clair Gigathlon. Merci.  :jap:

Reply

Marsh Posté le 02-02-2015 à 15:52:41   0  

risque t'on d'avoir un remplacent du 5960x ou une revision C1/E0 ?
 
ou ce sera pas avant 2 ans ?

Reply

Marsh Posté le 02-02-2015 à 15:53:41   1  

C'est pas comme si c'était écris dans la news :o

Reply

Marsh Posté le 02-02-2015 à 15:55:49   0  

the oc scientist a écrit :

risque t'on d'avoir un remplacent du 5960x ou une revision C1/E0 ?
 
ou ce sera pas avant 2 ans ?


 
Pour te répondre, c'est marqué début 2016 sur le tableau :p

Reply

Marsh Posté le 02-02-2015 à 16:12:56   0  

Vivement les tests de potentiels Skylake  QM :)   14nm, DDR4 1.2v, "nouvelle" archi (pas du die shrink  à la ivy bridge/broadwell), ça prends tout son sens, à priori, sur laptop :)

Reply

Marsh Posté le 02-02-2015 à 16:33:59   1  

Mister June a écrit :

Je suis un peu déçu qu'Intel se cantonne au quad core pour le grand public, alors que le quad-core (hors HT) est quand même présent depuis le 65 nm. J'espère qu'il y aura du nouveau en 2016...


 
Je trouve cela normal pour ma part. Plus il y a de coeurs, plus la conso est élevé, alors pour garder une conso raisonnable, les fréquences seront plus faibles. Du coup, avoir max 4 coeurs pour le grand public est une excellente chose.

Reply

Marsh Posté le 02-02-2015 à 18:57:22   0  

ravenloft a écrit :

Intel se cantonne au quad core car il n'y a pas de concurrence en face. Les hexa core et octo core sont vendus chères faute de concurrence.


Ils n'ont aucun intérêt à monter au-delà de 4C/8T dans la gamme grand public, c'est presque déjà trop... si tu veux absolument plus tu as le LGA2011 dont c'est le job.

Reply

Marsh Posté le 02-02-2015 à 19:18:09   0  

Gigathlon a écrit :


Ils n'ont aucun intérêt à monter au-delà de 4C/8T dans la gamme grand public, c'est presque déjà trop... si tu veux absolument plus tu as le LGA2011 dont c'est le job.


Ben perso ce qui me dérange avec le 2011, c'est qu'il n'y a que des mobo kéké style, à très cher et peu compactes.

 

Si Intel veut me vendre du hexa core @400€, mais sur une mobo basique @max 100€ et en mini-ITX, je signe, j'en ai que faire des 1000 lignes PCIe pour du SLI/X-Fire.


Message édité par fredo3 le 02-02-2015 à 19:19:04
Reply

Marsh Posté le 02-02-2015 à 19:51:43   1  

ravenloft a écrit :

Les jeux ont largement besoin de cpus avec plus de cœurs.


Non. Les jeux ont besoin de devs plutôt que de (mauvais) designers capables de scripter...

Reply

Marsh Posté le 02-02-2015 à 20:52:24   0  

Maxwell1664 a écrit :


 
Je trouve cela normal pour ma part. Plus il y a de coeurs, plus la conso est élevé, alors pour garder une conso raisonnable, les fréquences seront plus faibles. Du coup, avoir max 4 coeurs pour le grand public est une excellente chose.


Vrai et faux.
Ce serait vrai si les hexa et octo core étaient très gourmands.
C'est faux car ce n'est pas le cas.
Si tu regardes le test d'HFR, un 4790k 4 coeurs à 4ghz consomme 128W alors que l'hexa core à 3.5ghz consomme 155W. Cela fait que 23W supplémentaire et cela reste toujours bien moins qu'un AMD FX 8350 (189W d'après HFR)
http://www.hardware.fr/articles/92 [...] tique.html
 
Même l'octo core consomme que 162W il est vrai à 3ghz mais ce sera moins pour skylake.
 
Cela reste raisonnable. Rien n'empêcherait aussi à intel d'offrir une gamme grand public avec quad core et hexa core comme elle propose des dual core et quad core maintenant.
 
Le problème est plus une question de concurrence que de consommation.[/quotemsg]
 
Je suis d'accord avec tes chiffres. J'ai toujours en tête que l'augmentation de puissance varie au cube avec le fréquence (doubler la fréquence -> 8x plus de conso). Ce n'est pas exacte mais ça donne une idée :
 
3.5 GHz ^3 * 6 coeurs / 155 W = 1.66
4 GHz ^3 * 4 coeurs / 128 W = 2
 
On obtient un résultat similaire donc ce n'est pas totalement faux. Mais tout cela pour dire que pour la plupart des applications grand public, je doute que plus de 4 coeurs soient régulièrement utilisés. Ainsi, il y des fréquences plus élevées disponible donc je pense que c'est bien de rester sur 4 coeurs. Après si on propose des 8 coeurs avec des boosts à 4GHz sur 4 coeurs, alors pourquoi pas.

Reply

Marsh Posté le 03-02-2015 à 22:18:21   0  

ravenloft a écrit :

Toujours à dire des énormités plus gros que toi.
Tu sais tu peux avoir un jeu avec une grosse technique et un très bon gameplay, les 2 ne sont pas incompatibles et des exemples il en existe de nombreux. C'est juste un choix de l'éditeur.


J'ai pas dit le contraire, mais ça ne court pas les rues...
 
Il existe même quelques jeux que je qualifierai de "passables" avec des bons designers et des scripts pas buggés, mais combien à fonctionner autrement qu'avec un moteur tiers qui repose lui-même sur divers moteurs/API tiers?
 
Qu'on utilise un moteur 3D n'est pas choquant, mais ça fait un moment qu'on parle plus de moteurs de jeux que de moteurs 3D, seul le contenu est ajouté... alors c'est sûr que si on empile couches sur couches, à la fin on exploitera 500 threads, mais si c'est pour avoir des perfs qu'on aurait pu avoir avec 1 seul, où est l'intérêt? Ah oui, simplifier le développement, c'est vrai... mais du coup on se demande pourquoi les coûts explosent et la qualité n'augmente pas vraiment (je parle pas du nombre de polygones ou de la finesse des textures).

Reply

Marsh Posté le 04-02-2015 à 00:06:23   0  

ravenloft a écrit :


Ce ne sont pas mes chiffres mais ceux de HFR.
Les derniers jeux profitent pour pas mal d’entre eux de 6 coeurs et 8 coeurs et encore la physique est toujours du niveau de l'age de pierre.
 
Question fréquence vu que ça fait 10 ans qu'on est toujours entre 3 et 4ghz quelque soit le nombre de coeurs sans que ça évolue sauf avec o/c, des 8 coeurs à 3.5-4ghz ça arrivera vite et probablement avec la géné broadwell ou skylake.


 
Bah oui, si mon équation de P = k * f^3 est juste, ou même P = k * f^2 * (c1+c2 * f) ou que sais-je. Alors ils ont tout intérêt à ne pas dépasser les 4 GHz pour ne pas avoir une consommation trop grande.
 
La physique dans les jeux restera encore pendant des années à l'âge de pierre comme tu dis! Ca prendrais bien trop de ressources de calculer des vrais trajectoires. Va lancer une simulation d'un seul projectile avec un vrai algorithme pour voir le temps que ça prends. Même un algo RK4 saturerait le CPU, GPU et tout ce que tu veux dans un jeu vidéo. Pourquoi la différence entre les GPU grand public et pro est principalement le calcul DP ? Parce que pour un jeu vidéo, tout peux être approximatif, on cherche à "cracher des fps" tandis que les pros cherchent à faire les choses bien mais en prenant plus de temps !


---------------
Intel Core i7 2600K / Corsair H60 / Asus P8P67 Deluxe / Asus GTX 580 DirectCUII / Corsair Vengeance 1866 MHz 2x4 Go CAS9 / NZXT Phantom rouge et blanc / Seasonic X-850 / Corsair Force Series GT 240 Go / Western Digital Caviar Blue 1 To SATA III / Lite-On
Reply

Marsh Posté le 04-02-2015 à 00:28:00   0  

Maxwell1664 a écrit :

Pourquoi la différence entre les GPU grand public et pro est principalement le calcul DP ? Parce que pour un jeu vidéo, tout peux être approximatif, on cherche à "cracher des fps" tandis que les pros cherchent à faire les choses bien mais en prenant plus de temps !


Euh... outre certaines erreurs qu'on peut contourner, la DP n'a aucune utilité pour du graphisme surtout, même pour des simulations physiques dont la précision n'est pas absolument critique (auquel cas les algos vont être bien lourds, en 64bits avec mise en oeuvre de tout ce qu'il faut pour limiter les artefacts).

Reply

Marsh Posté le 04-02-2015 à 00:33:27   0  

Gigathlon a écrit :


Euh... outre certaines erreurs qu'on peut contourner, la DP n'a aucune utilité pour du graphisme surtout, même pour des simulations physiques dont la précision n'est pas absolument critique (auquel cas les algos vont être bien lourds, en 64bits avec mise en oeuvre de tout ce qu'il faut pour limiter les artefacts).


 
Sauf erreur de ma part, la NASA utilise des méthodes RK16 pour leurs simulations, je pense que la DP est la bienvenue dans ce cas.


---------------
Intel Core i7 2600K / Corsair H60 / Asus P8P67 Deluxe / Asus GTX 580 DirectCUII / Corsair Vengeance 1866 MHz 2x4 Go CAS9 / NZXT Phantom rouge et blanc / Seasonic X-850 / Corsair Force Series GT 240 Go / Western Digital Caviar Blue 1 To SATA III / Lite-On
Reply

Marsh Posté le 04-02-2015 à 15:37:19   0  

merci messieur miro que je suis j'avais meme pas regarder le tableau (shame on me)
 
la nasa c'est meme plus de la double précision ca doit etre de la triple ou de la quadruple (FPU 96/128 bits)


Message édité par the oc scientist le 04-02-2015 à 15:38:24
Reply

Marsh Posté le 24-03-2015 à 13:16:34   0  

blazkowicz a écrit :

Pour le Broadwell-K, il aura en particulier 128Mo de L4 sur un second die ce qui peut avoir beaucoup d'intérêt en fonction de l'application, ou peut-être pas tellement. Mais ça a le mérite de fonctionner tout le temps (alors que l'AVX 512 se rajoute à la longue liste des x87, SSE2, SSE3, AVX, AVX2) et peut-être d'améliorer la performance single-thread.


+1 entre le L4 et l'IPC en hausse, même @ 3,8GHz en Turbo, il devrait avoir des perfos du niveau du 4790 pour 65W au lieu de 84W, c'est déjà ça...
 
Le 4790K reste un cas particulier. Mais si l'o/c suit, à la rigueur, OSEF.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
Reply

Marsh Posté le 25-03-2015 à 22:43:19   0  

ravenloft a écrit :

Si tu regardes les tests sur gamegpu.ru, une grosse partie des derniers jeux utilisant les derniers moteurs exploitent plus de 4 coeurs et ça va encore plus se généraliser avec l'abandon des jeux old-gen.


Tiens, j'avais loupé ça...

 

Je vais faire mon MOTO, mais c'est évident qu'à empiler des couches chacune peut utiliser un core voire plusieurs, c'est pas pour autant que cette utilisation est pertinente. C'est comme faire 1 appli client et 1 appli serveur pour effectuer quelque chose qui se fait très bien en 1 seule appli : ça bouffe de la RAM en pagaille et plus de CPU (communication inter-process, à un niveau moins violent il y a la même problématique avec les threads). Encore plus ridicule histoire de bien souligner, on peut prendre l'image du serveur en 127.0.0.1 qui va devoir traverser au moins quelques couches du protocole même si les finales peuvent être court-circuitées au lieu de tout gérer en interne.

 

Dans le cas des jeux, ces process/threads concurrents sont en prime une source de variabilité parfaitement indésirable, il est indispensable d'avoir un thread maître "temps-réel".


Message édité par Gigathlon le 25-03-2015 à 22:46:19
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed