Grande question mainframe IBM vs multi-pc

Grande question mainframe IBM vs multi-pc - Réseaux - Systèmes & Réseaux Pro

Marsh Posté le 14-04-2009 à 10:22:56    

Préambule :
j'aimerais vraiment avoir l'avis de personnes franchement pointues, des personnes éclairées, des personnes pour lesquelles il y a peu d'inconnues, et qui ne vont pas réciter le discours formaté des commerciaux d'IBM, ou à l'inverse du technicien qui ne connait que des exemples.
 
Ma question part d'une discussion avec un directeur d'un gros service de production informatique (en mainframe) au sujet des serveurs google (une news toute récente) qu'il considérait comme un poisson d'avril.
 
Clairement, il s'agit là de 2 mondes opposés :  
d'un coté, les petits génies de Google qui réinventent la poudre avec 2 cailloux et une paille
de l'autre un service dont le rôle est clairement de sous-traiter chez IBM, lequel est très doué pour faire des bénéfices.
 
Pourtant, le but initial était le même : un besoin quotidien d'une puissance de calcul très conséquente, avec une qualité entreprise (sécurité, robustesse, etc. ), virtuellement masqué par des besoins fonctionnels très différents, et surtout un passif très différent aussi.
 
Maintenant, la question qui fâche :
IBM vend du mips, (million d'instruction par seconde), et bien sûr une certaine image, expérience, sav, support, et confiance.
Le problème, c'est que ce mips, il le vend TRES, HORRIBLEMENT cher. (un z10, c'est 1.000.000$, et tous ses copains - stockage, sauvegarde, services, logiciels ... - coutent aussi cher)
Un point important de cette vente, c'est que le mips, tous commes les krzghk et les plkjhxwf, on ne sait pas combien ca coute... Sauf si on apprend au détour d'un wiki qu'un cpu grand public ca tourne à 5000mips. (et que le z10, lui, il en fourni 30.000 avec ses ??? cpu)
Or, google lui crée bien ses serveurs avec un cpu grand public.
 
Question :
est-ce que IBM vend réellement du matériel, ou s'agit-il simplement d'un service ajouté sur du matériel qui ne représente, avouons-le, que 5% de la dépense ?
 
Et est-ce que ce

Citation :

IBM en profite à fond en envoyant des messages clés comme : "Le z10 peut remplacer 1500 serveurs x-86 et consommer 85% de courant en moins".

est réellement sérieux ?
Parce que certes, paralléliser avec plein de pc, c'est difficile, mais de là à passer de 1500x5000=30.000x250 à 250 fois moins, il y a quand même un méchant gouffre :s
Par ailleurs, notez que les traitements de gestion demandent peu de ressources partagées, c'est surtout du traitement de flux .. Contrairement à google qui lui se retrouve surtout avec un boulot de style routeur. (tout le monde est connecté avec tout le monde, donc où on préfère réduire le nombre d'acteurs ...)
 
Merci pour votre aide !
 
note : c'est super difficile de se renseigner sur internet, parce qu'on manque d'éléments critiques comme on en trouve contre les produits grand publique ..
Du coup, les marketeux/commerciaux peuvent bien dire ce qu'ils veulent, pas grand monde pourra les contredire.
(mais j'espère que vous, si :p)

Reply

Marsh Posté le 14-04-2009 à 10:22:56   

Reply

Marsh Posté le 14-04-2009 à 10:42:44    

En fait, mon impression (mais c'est très "feeling", car je n'y connais rien), c'est qu'IBM avec le mainframe possède un marché réservé, un peu comme s'il était le seul vendeur de quad au pays des motos, et que ca l'arrange bien que personne n'ose apprendre le 2 roues.
 
Et dans son marché réservé, il en profite pour écouler des machines à l'architecture interne assez originale, née pour répondre à un cahier des charges et s'adapter à des technos de 1970.
 
En gros, IBM vendrait des machines incomparables, mais si on s'amusait à les comparer, elle ressemblerait à des VIA C3.
Or, des via C3, très bien pensé au demeurant, vous n'en voudriez pas dans vos pc... A moins que vous n'ayez pas le choix, et aucun moyen de comparer ...
 
Autre façon de voir, c'est d'imaginer qu'IBM ne s'est jamais adapté aux technologies actuelles. (raison évidente : le client ne souhaite jamais changer un système qui tourne, c'est trop risqué)
Or, c'est pourtant une révolution techno que l'on voit arriver actuellement :
si votre besoin, c'est de la puissance brute (avec peu de boucles, peu de branchements conditionnel), faut pas utiliser un cpu, un gpu c'est 100 fois plus puissant.
En gros, le gpu, c'est la nouvelle grosse marche qui est apparue, et qui va mettre, je n'en doute pas, des années avant d'arriver dans les serveurs de calcul d'entreprise (même si le larrabee d'intel devrait bousculer les choses) ...
Ben, est-ce que ces mainframe-users n'auraient pas déjà raté la marche du x86 bon marché ?

Reply

Marsh Posté le 15-04-2009 à 13:20:04    

Aujourd'hui il vaut mieux clairement éclater au maximum. Je n'irais pas jusqu'à dire qu'un Xeon quad core est un cpu grand public (mais ça reste largement accessible pour une entreprise qui n'a pas trop de problèmes de ca$h).
 
Il vaut mieux éviter de s'enfermer dans une solution fermée de type mainframe IBM. C'est le bon moyen de se retrouver pieds et poings lié à IBM pour un temps indéterminé à un coût encore plus indéterminé sur le long terme.
Au contraire si on a besoin de puissance brute, il vaut mieux monter des grappes de calculs faites avec une multitude de "petites" machines au format rack 19" dans des armoires de 32, 40 ou 52U. C'est beaucoup moins cher, modulable (besoin de plus de puissance ? ok, on rachète x machines supplémentaires), et c'est beaucoup moins centralisé. On peut faire plusieurs grappes de calcul en fonction des besoins et des applications au lieu de tout centraliser sur un seul et même mainframe.
 
Il est clair qu'à l'age d'or des mainframe, la malveillance n'était pas très répandue, maintenant elle est vraiment partout et les gros systèmes sont aussi susceptibles d'être touchés, alors mieux vaut éviter de centraliser, parcequ'on centralise les points faibles aussi...
 
Mieux vaut payer ce dont on a besoin et se laisser une marge de manoeuvre pour évoluer

Reply

Marsh Posté le 03-06-2009 à 15:39:51    

la solution cluster est a mon gout la plus sure, la plus évolutive et la moins cher disponible a l'heure actuelle.
Je ne parle pas non plus de grande expérience, cependant on a mis en place déjà cinq systèmes clusters pour test; même en imaginant des scénarios catastrophe, avec des pannes en série, des pertes de paquets..., si le système est pas trop mal géré ça ne rajoute qu'un infime temps de calcul sur les gros systèmes. Sur un parc de 210 machines (mise en commun de calcul sur les salle informatiques de l'Efrai pour ceux qui connaissent), avec une bonne gestion en logiciel on a réussit a gérer des multi crash serveur/réseau sans problème.
Ceci pour le point de vue de l'accessible immédiatement.

 

Après la remarque sur les calcul GPU est très pertinente; adepte du calcul partagé de type BOINC, la mise a disposition d'un SLI de NVIDIA au logiciel permet de décupler les possibilité de traitement,sans commune mesure avec l'ajout de CPU supplémentaires.

 

Il ne faut pas perdre de vue que même les gros système IBM utilisent finalement le même principe que le clustering; le partage des calculs entre plusieurs unités, seulement dans le cas d'IBM tout se fait en interne dans leur système.


Message édité par TheMartel le 03-06-2009 à 15:40:10

---------------
[VDS]Ventes stock d’entreprise divers IT - 600€ les + de 2400€ de matériel
Reply

Marsh Posté le 03-06-2009 à 16:02:45    

Ok, j'aime beaucoup vos réponses très instructives, mais il y a encore quelques points sur lesquels je bloque ...
 
Par rapport à un cluster, le mainframe vaut quoi en terme de puissance ? Parce qu'en mips pur, le mainframe à 1M$ se fait déchirer par un cluster tout bête de 5 serveurs à moins de 2000€
Alors, certes, la somme des mips est théorique, qu'en est-il en pratique ? Il faut combien de noeud pour égaler en puissance le gros mainframe à 1M€ ?
 
Deuxième point : le mainframe à 1M€, qui contient 64 puces, il coute combien en réalité, à l'unité ? Ses cables sont en or massif ou ils se font 95% de bénéfice sur chaque pièce ?
 
Troisième point : la puce de mainframe (la puce s'appelle z6) qui affiche moins de 1000mpis toute mouillée, elle a quoi comme maladie ? Les ingé d'IBM ont 20 ans de retard par rapport à Intel ou bien ?
 
La dernière question, je vais la poser dans un autre sujet, ce sera plus adapté :)
 
merci pour vos réponses !

Reply

Marsh Posté le 04-06-2009 à 13:08:21    

pour les question du cluster, en gros 4 machines en cluster travaillent 3.75fois plus vite qu'une même machine toute nue. Après le reseau va énormément jouer, nous on était en 100M, et même de très bonne qualité les temps de latence et le renvoie des infos fais qu'on perdait pas mal de temps quand il y a beaucoup de machine (serveur en fibre mais bon ça fait goulet d'étranglement tout de même).
Chez IBM tu va payer les coups de dev, qui sont très élevé parce qu'IBM est tout seul a travailler dessus, et donc doit rentabiliser son truc tout seul. C'est le même combat que Appel contre les pc; pouir les pc il y a des milliers de développeurs, chez appel finalement un seul.


---------------
[VDS]Ventes stock d’entreprise divers IT - 600€ les + de 2400€ de matériel
Reply

Marsh Posté le 29-07-2009 à 16:14:39    

Wiiip a écrit :


 
Troisième point : la puce de mainframe (la puce s'appelle z6) qui affiche moins de 1000mpis toute mouillée, elle a quoi comme maladie ? Les ingé d'IBM ont 20 ans de retard par rapport à Intel ou bien ?
 
 


 
 
L'architecture joue beaucoup : je pense que les puces des mainframes ont une architecture CISC, contrairement au CRISC ou RISC des pc de bureau. Bilan 1 mip sur mainframe n'equivaut pas à 1 mip sur PC, loin de là !!!  
 
En faisant un clin d'oeil on peut traduire MIP par "mauvais indicateur de puissance" ...

Reply

Marsh Posté le 09-09-2009 à 07:33:11    

comparer mainframe et cluster en terme de puissance de calcul est une vision assez reductrice du pb..
 
il y a des applis qui sont adaptees a des clusters geants.. le server web est l'exemple typique. Des centaines d'instances qui peuvent parfaitement fonctionner independamment.
Avec un bon systeme de load balancing, il suffit de spawner de nouvelles instances sur le cluster et la capacite augmente de facon quasi proportionnelle (enfin c'est loin d'etre le cas, mais en theorie..)
 
D'un autre cote, il y a les appli pour lesquelles les parametres importants sont les I/O, les temps de reponse, et surtout l'integritee des donnees a tout instant. Un systeme transactionnel type banquaire est l'exemple parfait : Des millions de transactions, et 0% de dechet authorise.
Sur un cluster web, si une machine claque, on ne perd pas trop de donnees critiques, et moyennant une petite latence, tout est renvoye sur un autre node.
 
Dans un systeme boursier, c'est tout simplement inacceptable, quelques millisecondes peuvent entrainer des millions de variance.
C'est dans ce type d'app que les mainframes sont roi... Tu peux perdre une carte d'extension complete sur un z10, et personne n'y verra que du feu (enfin presque :p ).. les calculs en cours sur un CPU passeront sur celui d'a cote, et pas un bit ne sera perdu.
MTBF d'un as400 ? 25 ans.. un server dell standard ? quelques annees tout au plus..
Un uptime de five-9 sur un mainframe, ca se fait.. Le passage en mode degrade est plus ou moins integre. Sur un cluster ? le recent downtime de gmail prouve que c'est pas evident.
 
Et je ne parle meme pas de tout les legacy systems qui trainent partout et qui tournent parfaitement sur des ibm recents (backward compatibility garantie).  Balancer quelques millions pour un mainframe n'est rien par rapport au cout/risque de tout re-ecrire (sans oublier le "if it isn't broken, don't fix it" ).
 
Donc oui, un sysZ coute une somme astronomique sur le papier.. mais pour bcp de boites, ca reste la solution la plus sure/econimique..
-J'ai choisi les banques, mais les exemples sont innombrables.. Parmi les grosses boites, Google est l'exception, pas la regle (et ca ne m'etonnerais meme pas si on me disais que leur backend financier tournait sur des mainframes :p )
 
L'exemple inverse existe egalement ceci dit.. il me semble que le london stock exchange a mis en place un cluster x86 recemment..
Donc en gros, y'a du pour et du contre dans les 2 sens, mais en pratique, pour les boites qui se posent vraiment la question, le probleme d'aligner un million upfront n'est pas vraiment la question centrale... ROI, uptime, SLA, scalabilite.. tout est pris en compte.
 
side note: en terme de puissance calcul brute, c'est une chose d'avoir des milliers de CPU en parallele, mais de les faire tous fonctionner ensemble en est une autre.. Ce n'est pas un hasard si le top 10 des supercomputers mondiaux est remplis de cluster IBMs et crays...
L'expertise aussi a un prix..


Message édité par flik-flak le 09-09-2009 à 08:19:19
Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed