Duquesne Group Duquesne Group

English version
Recherche et Analyse

Pour éclairer les décideurs dans le domaine de la Continuité d'Activité et de la Sécurité de l'Information, Duquesne Group propose ses analyses et réflexions issues de ses réalisations concrètes en clientèle. Observation critique du terrain par nos experts, contacts permanents avec les principaux acteurs du domaine et expérience vécue dans nos missions de conseil sont nos principales sources. Contactez-nous pour en savoir +
French version
Research

To support decision makers in the management and optimisation of information systems, Duquesne Group delivers in-depth analyses of information technologies, their implementations and their markets. Our research is based on critical observation of the market by our analysts and their on-going contacts with the vendor community, together with hands-on, practical experience from our consulting work. Contact us to find out more


Le cloud fait exploser le serveur


La grande tendance depuis quelques années est de concentrer de plus en plus de serveurs dans un nombre restreint de gros data centers prévus à cet effet.

Cette évolution, facilitée par les outils de virtualisation, ne permet des économies d'échelle significatives que si elle s'accompagne d'un reingineering conjoint du serveur et du data center.

Ce reingineering n'est pas à la portée de l'exploitant lambda et sans ce travail, les économies d'échelle demeurent limitées.

Seuls les gros exploitants de clouds publics ont (ou auront) cette capacité à optimiser les coûts en ayant recours à des serveurs d'un nouveau genre que l'on ne trouve pas dans le commerce.

Ainsi donc, le cloud fait exploser le serveur.



crédit photo DR
crédit photo DR

La fin du serveur classique

Nous parlons bien sûr des serveurs de type x-86 sous toutes leurs formes.

Regardons schématiquement de quoi ils se composent :

  • Un ensemble « carte mère » emportant le cœur du système (microprocesseur, différentes couches de mémoire, des jeux de composants divers, …)

  • Des extensions diverses via des « slots » permettant des variantes de connectique diverses.

  • Une partie « alimentation » assurant les diverses conversions électriques (alternatif/continu, 220 V-48V ou 12V voire 6V) ; cette partie pouvant être doublée pour des raisons de redondance.

  • Une partie « climatisation » en charge du refroidissement de l’ensemble du serveur et composée de ventilateurs divers (sur le microprocesseur, en entrée d’air, en sortie) et de radiateurs, là encore la fiabilité demande un doublement des éléments en mouvement.

  • Enfin, notons que tout cela tient dans un carter au format rack plus ou moins épais.

En termes de consommation électrique, les parties « alimentation » et « climatisation » peuvent consommer jusqu’à 35 à 50% de ce que le serveur consomme.

Un data center hébergeant 200 000 serveurs va-t-il s’encombrer de 400 000 alimentations électriques et de 400 000 ventilateurs logés dans 200 000 carters ? Il est évident que non !

On voit clairement que les grands hébergeurs ont intérêt à « éclater » le serveur et à optimiser l’ensemble serveur+data center.

Si le serveur leur appartient, ou s’ils peuvent influencer le client sur son choix, cela est possible. Les offreurs de SaaS, IaaS ou de PaaS ont donc intérêt s’ils veulent optimiser leurs coûts –ne serait-ce que ceux liés à la consommation électrique- à repenser le « serveur ». Et par la même occasion à repenser le data center pour le rendre le plus adapté possible. C’est ce qu’ils ont commencé à faire.

Mentionnons pour mémoire que la toute première étape allant dans ce sens a été constituée par les serveurs lames dans les années 2000 : les constructeurs prenaient alors l’initiative d’une optimisation limitée au châssis : les alimentations électriques et la ventilation étant alors mutualisées pour la douzaine de lames que le châssis pouvait contenir. Le data center, lui, ne connaissait pas d’évolution. La difficulté dans cette démarche est que l’opérateur de cloud est captif d’un format de châssis constructeur et d’un prix et que son optimisation est très limitée. Il lui faut aller plus loin.

La remise en cause conjointe serveur + data center

Les grands acteurs tels que Google ou Amazon n’ont pas attendu 2014 pour effectuer cette remise en cause complète.

Sans entrer dans les détails, on peut citer des choix techniques qui font du sens pour économiser à grande échelle sur les principaux postes de coût :

  • Réduire le serveur à une carte minimale (processeur, mémoires, chip set) avec alimentation directe en courant continu par exemple et peu, voire pas de carter.

  • Assurer une circulation d’air frais par grands lots de serveurs ainsi réduits : plusieurs racks déshabillés dotés de deux ou trois systèmes de refroidissement/ventilation.

  • Grouper la production et transformation du courant par grands ensembles modulables desservants n racks de « serveurs réduits » éventuellement prévoir de petites batteries simples et pas chères proches des serveurs

  • Etudier la connectique de tout cela afin de réduire le nombre de câbles de toute sorte.

On le voit, c’est l’hébergeur qui dessine et son serveur et son data center. Il confie la fabrication de ces éléments en grande quantité à un fabriquant asiatique à bas coût. Le serveur « classique » a disparu et le data center s’est mué en structure d'accueil conséquente.

C'est aussi pour cette raison que les acteurs du cloud préfèrent construire à neuf leur data center plutôt que d'aménager un site existant. Les investissements d'IBM entre autre sont révélateurs de cette tendance.


Qui achètera encore des serveurs x-86 « normaux » ?

Si l’on considère que la démarche décrite plus haut se généralise à des grands data centers accueillant une très grande proportion des serveurs x-86 en usage dans le monde, cette question mérite d’être posée.

Le recours de plus en plus important au cloud pousse à cette optimisation et à la perte de vue du client sur la machine. Il ne restera plus comme acheteur de serveurs « normaux » que les entreprises qui voudront exploiter ceux-ci chez elles et n’auront ni la taille critique ni la volonté d’optimiser. Il est fort probable que le marché en question soit en décroissance sur les cinq années à venir.

Tous ceux qui achètent des plateformes en cloud n’ont pas accès à la machine physique et ne savent d’ailleurs pas ce qu’elle est. Il n'y a pas de différentiation concurrentielle sur ce point.

On peut noter que si les entreprises qui pratiquent le cloud privé n’optimisent pas d’avantage, elles se heurteront assez vite à une structure de coût défavorable par rapport aux acteurs de cloud public.

En résumé, on peut dire que la tendance à acheter en cloud casse le marché du serveur classique et renforce le rôle de l'acteur de cloud comme concepteur et prescripteur de serveurs spécifiques adaptés à sa situation.

La vente récente par IBM de son activité de serveurs classiques x-86 prend alors une autre tournure. Si big blue considère que son marché « devient cloud », il continue malgré cette cession à garder la main. Réaliser des économies d’échelle industrielles de grande ampleur est un savoir-faire reconnu d’IBM. HP quant à lui reste dans une vision traditionnelle qui peut sembler dangereuse à la longue, surtout qu'IBM lui pose Lenovo comme concurrent.

Ainsi donc le marché du serveur x-86 va se transformer entre un segment masqué "acteur cloud" et un segment traditionnel "opérateur sur site".

Attention à l'éco-système

Cette tendance a des impacts collatéraux non négligeables sur un certain nombre d'acteurs :

  • les concepteurs de processeurs : Intel garde la main avec l'architecture x-86 (avec AMD en petit suiveur ?) mais ARM et ses fabricants sous licence ont une place à prendre en entrée de gamme et on peut imaginer une autre place à prendre dans le haut de gamme (le Power d'IBM ?)

  • les virtualiseurs : VMware est bien en place dans le monde traditionnel, mais des opportunités existent pour les solutions maison (qu'utilise Google ?) à base d'Open source divers pour les acteurs du cloud qui ont leurs propres outils

  • les éditeurs de systèmes d'exploitation : remarque similaire avec Windows d'un côté et tout ce que permet l'Open source entre les mains des offreurs de cloud. Au passage notons qu'il n'y a pas que sur le smartphone que Microsoft est menacé, il l'est aussi sur le serveur. Son nouveau président indien s'occupait d'ailleurs...du cloud !

En bref on peut dire que l'offreur de cloud a beaucoup de cartes en main et peut faire collaborer son éco-système mais aussi introduire des éléments qui lui sont propres.

Le client lui ne regarde plus la boîte et son contenu, il achète un service.

Conclusion : la tendance cloud va perturber tout ce qu'elle touche

La concentration cloud remet en cause les frontières traditionnelles et permet des optimisations plus "hautes".

L'ensemble de l'éco-système est concerné par ces évolutions dans lesquelles les acteurs en place ont besoin de s'adapter et les acteurs du cloud peuvent apparaître comme partiellement maîtres du jeu.

a suivre...
Emmanuel Besluau
Jeudi 20 Février 2014

Home Home    Mail Mail    Print Print    Zoom + Zoom +    Zoom - Zoom -    Share Share


Duquesne Research Newsletter