Duquesne Group Duquesne Group

English version
Recherche et Analyse

Pour éclairer les décideurs dans le domaine de la Continuité d'Activité et de la Sécurité de l'Information, Duquesne Group propose ses analyses et réflexions issues de ses réalisations concrètes en clientèle. Observation critique du terrain par nos experts, contacts permanents avec les principaux acteurs du domaine et expérience vécue dans nos missions de conseil sont nos principales sources. Contactez-nous pour en savoir +
French version
Research

To support decision makers in the management and optimisation of information systems, Duquesne Group delivers in-depth analyses of information technologies, their implementations and their markets. Our research is based on critical observation of the market by our analysts and their on-going contacts with the vendor community, together with hands-on, practical experience from our consulting work. Contact us to find out more


Le Data Centre : un "actif technologique" majeur




Le Data Centre : un "actif technologique" majeur
L'évolution des usages des technologies de l'information et de la communication, et notamment la centralisation des moyens de traitement et l'émergence du cloud computing, a mis les data centres au cœur des préoccupations des responsables IT.

Présentés comme des outils de compétitivité majeurs pour les organisations, voire comme des facteurs de souveraineté ou d'indépendance nationale, les data centres sont devenus un enjeu majeur.

Le dynamisme actuel de ce secteur attise les appétits et génère une pléthore d'offres, ce qui est une bonne chose dans la mesure où ces offres correspondent à une réalité et sont porteuses de valeur.

Mais en « sortant » de l'univers traditionnel de la production informatique, fait de sérieux et de discrétion, le data centre devient le thème d'un fort « bruit marketing », ce qui est regrettable quand ce bruit risque de brouiller des débats importants.


Vers une vision intégrée de l'économie des data centres

L'équation que doivent résoudre les responsables de data centres est complexe. Il s'agit avant tout d'optimiser les coûts, tout en répondant rapidement à des besoins en expansion (volumes de données, portefeuille applicatif, nouvelles contraintes de conformité et de sécurité, exigences accrues en termes de disponibilité et de résilience), en veillant à réduire l'empreinte environnementale et notamment énergétique, et en prenant en compte de nouveaux modèles organisationnels et architecturaux.

Seule une vision intégrée de l'économie des data centres, prenant toutes ces dimensions en compte de manière cohérente, permet d'arrêter les bonnes décisions en termes de choix technologiques et de « sourcing ». Il n'y a pas, en cette matière, de solution technique miracle ou d'offre providentielle résolvant tous les aspects de l'équation. Un premier pré-requis, cependant, est de bien comprendre la nature même de l' « actif data centre ».

Le data centre est un ensemble de moyens techniques regroupés et combinés, matériels et logiciels, permettant à l'organisation d'effectuer efficacement le traitement des informations nécessaires à son fonctionnement. Ces moyens techniques doivent être hébergés et desservis. Il leur faut donc une « enveloppe » et des « services » : dessertes en accès physiques, énergie, fluides et refroidissement, accès réseaux, sécurité physique, etc. Ces aspects d'enveloppe et de services sont parfaitement nécessaires et il importe de s'assurer de leur performance. Toutefois, ils ne sont pas les composants les plus fondamentaux du data centre vu comme actif technologique.

Le data centre est donc bien un actif technologique avant d'être, par exemple, un actif immobilier ou logistique. Un tel actif peut ne pas inclure du tout son « enveloppe », voire se « dématérialiser » dans des environnements de type cloud public.

La prolifération des offres de « solutions data centre » va ouvrir aux responsables IT des options multiples pour répondre à l'équation évoquée plus haut. Il importe donc de s'assurer que l'on garde un maximum d'options ouvertes, sans pour autant négliger le poids de l'existant ni les coûts associés à la flexibilité.

Considérer le data centre comme un « actif technologique », associé à l'exécution de tâches vitales pour l'organisation, permet d'évaluer de manière plus pertinente un certain nombre d'affirmations rencontrées couramment dans l'industrie, et qui constituent pour la plupart des simplifications abusives, voire de « vraies fausses idées ».

Affirmation 1 : Il vaut mieux créer de nouveaux data centres de toutes pièces, plutôt que d'améliorer l'existant

Cette affirmation est sous-tendue par l'idée que les gains possibles en matière d'efficacité énergétiques seraient nettement plus importants. Il s'agirait d'optimiser le ratio PUE (Power Usage Effectiveness), en considérant que la montée inéluctable des coûts énergétiques, associée à des consommations toujours croissantes des équipements, feraient de cet aspect le problème de coût numéro 1 des data centres.

Pour rappel, le PUE est le ratio obtenu en divisant la consommation électrique totale du data centre par la consommation des équipements informatiques. Plus ce ratio tend vers 1, plus le data centre est énergétiquement efficace. Le ratio PUE des data centres traditionnels est couramment supérieur à 2 et peut atteindre 3.

On assiste depuis dix huit mois à une véritable « course au meilleur PUE », notamment de la part des fournisseurs de data centres modulaires (en conteneurs, « shelters » ou autres), et des grands réalisateurs ou exploitants de data centres. Sont annoncés des PUE de moins de 1,10.... Valeurs théoriques à peu près aussi pertinentes que les consommations normalisées des automobiles, dont chacun sait qu'elles sont massivement sous-estimées.

Rappelons que l'une des composantes du PUE est la dissipation de chaleur par les équipements, ce qui conduit à des PUE différents, pour une même infrastructure d'enveloppe, selon la nature des équipements, leur disposition et leur mise en œuvre.

Notre recherche indique que les niveaux de PUE raisonnablement optimisés et réalisables « en conditions réelles » se situent plutôt entre 1,4 et 1, 6 pour des infrastructures modernes.

Observons également que, même s'il ne faut pas voir un data centre avant tout comme un actif immobilier, les infrastructures existantes doivent bien être amorties. De plus, la demande de surfaces de data centres croît à un rythme qui exclut de se passer d'une grande partie des infrastructures existantes.

Ces infrastructures peuvent d'ailleurs faire l'objet d'améliorations substantielles, de nature à réduire très significativement leurs coûts énergétiques. Ainsi, les techniques dites de « free cooling » peuvent s'appliquer aux environnements existants, à la condition d'apporter un soin particulier aux moindres détails de leur mise en œuvre.

Le grand coupable étant le refroidissement des équipements, l'idée du free cooling est de tirer parti des conditions climatiques (disponibilité d'air ou d'eau suffisamment frais) pour réduire le recours à la climatisation. Incontestablement, le potentiel de ce type de solution est réel, comme le montrent les études menées par le Dr Robert Tozer et sa société Operational Intelligence Ltd.

A noter que le free cooling, qui bien évidemment n'a rien de gratuit, suppose des investissements spécifiques et pose ses propres challenges techniques (filtration de l'air extérieur, régulation /contrôle de son humidité, …). Cependant, il permet d'obtenir des améliorations de l'efficacité énergétique qui en justifieront le coût, tant en environnements « data centre neuf » que dans des projets de « retrofit » sur site existant.

De manière similaire, le recours à des techniques bien connues, telles que le confinement d'allées - allée chaude (solution la plus performante mais parfois délicate à mettre en œuvre) ou allée froide - permet d'améliorer la performance énergétique de data centres existants.

En conclusion

Si les nouveaux cas d'usage des data centres, et en particulier l'hébergement de grandes infrastructures de cloud computing ou de calcul à haute performance justifient effectivement la mise en œuvre d'équipements neufs, il n'en va pas nécessairement de même pour les data centres d'entreprise existants.



Affirmation 2 : Plus un data centre est grand, plus ses coûts sont performants

Cette affirmation, souvent rencontrée en matière de data centres orientés cloud, mérite d'être examinée de plus près, et sérieusement nuancée.

Il est incontestable que les effets d'échelle existent en matière de data centres : les très grands fournisseurs de cloud (Amazon, Microsoft, Google ou encore Orange Business Services avec son centre de Val de Reuil) comme les grands acteurs des réseaux sociaux (Facebook) disposent de data centres de grande taille très performants en termes de coûts.

Toutefois, si les effets d'économies d'échelle en termes de rentabilisation des ressources humaines sont indéniables, de même que les aspects d'efficacité des achats (sourcing), d'autres paramètres entrent en ligne de compte, en particulier la standardisation des équipements (serveurs très largement identiques, infrastructures réseau standardisées...). Le data centre d'entreprise ne bénéficie en général pas de cette standardisation, alors même qu'il est bien plus « petit ».

D'autres acteurs comme IBM, qui exploite un grand nombre de data centres de tailles très variées, peuvent parvenir à des coûts très compétitifs grâce à leur base de clientèle et à leur taille en tant qu'organisation, bien plus que par les caractéristiques techniques des centres pris individuellement.

Enfin, pour les centres hébergeurs (donc pas forcément standardisés en termes de machines hébergées), s'il existe des effets d'échelle avérés jusqu'à des surfaces de l'ordre de 15000 m² de planchers, il n'est pas certain que ces effets puissent se prolonger au delà de ces niveaux.

En effet, les data centres de très grande taille posent des questions spécifiques de sécurité, de desserte, et également de dépendance potentielle face à un fournisseur, notamment d'énergie. Si on implante un data centre près d'une centrale électrique et qu'on se place de ce fait en situation de monopole pour le producteur d'énergie, que se passera-t-il en cas de hausse des cours de l'énergie ? Le client, si important soit-il, sera captif.

Observons d'ailleurs que l'efficacité économique des très grands data centres est très fortement liée à la mise en œuvre des « meilleures pratiques » en matière de design, d'exploitation, de supervision, etc. La définition de ces « meilleures pratiques » résulte largement de leur capacité à mobiliser des équipes performantes, mais rien n'interdit d'appliquer des pratiques identiques et/ou adaptées à des centres de moindre taille.

Ainsi, le développement de l'offre d'outils de type DCIM (Data Centre Infrastructure Management) permet à tout data centre de se doter de moyens de pilotage technique et économique plus efficaces. De même, l'effort d'ouverture de certains acteurs (Facebook notamment) pour partager leurs « meilleures pratiques », voire leurs architectures techniques, est de nature à faciliter la dissémination de ces bonnes pratiques.

En conclusion

S'il est certain que le déploiement de très grands data centres soit un atout pour les très grands intervenants du cloud et des services en ligne, compte tenu des volumes qu'ils ont à traiter, ceci n'implique nullement que des data centres de taille moins importante ne puissent demeurer compétitifs. Observons également qu'il peut y avoir complémentarité, d'un point de vue PCA / PRA, entre des infrastructures très centralisées et d'autres plus distribuées, recourant à des data centres plus petits, et qui ne seront pas forcément sujets aux mêmes types de risques.


Affirmation 3 : En matière de data centre, le « buy» l'emporte sur le « make »

S'agissant de la création d' «enveloppes » de data centres, cette affirmation est largement fondée,. Les métiers impliqués, nombreux, et fortement colorés « bâtiment / génie civil », ne sont pas forcément disponibles au sein d'une organisation.

De plus, la réalisation de tels sites est nécessairement longue, et les délais de réalisation incompatibles avec le « temps stratégique » de l'organisation : il n'est pas rare qu'un besoin business émerge et doive être traité dans un délai de trois ou six mois, quand la réalisation d'un bâtiment « enveloppe » de data centre peut nécessiter plus de 18 ou 24 mois... Certains acteurs, comme Digital Realty Trust, mettent l'accent sur ces aspects dans leur offre, à juste titre.

Comme on l'a vu en introduction, l'aspect « enveloppe » n'a, de surcroît, pas forcément une grande importance stratégique. Des solutions comme les data centres « modulaires » (conteneur, « shelter »...) peuvent toutefois pallier en partie cet aspect du problème (cf infra), quand leurs contraintes propres restent compatibles avec le besoin business.

En tout état de cause, le data centre vu comme actif technologique ne saurait être entièrement « externalisé ». A minima, il importe d'en conserver la maîtrise de l'architecture, des choix technologiques et des règles d’exploitation et de pilotage, même si ces fonctions sont ensuite réalisées par un prestataire externe.

La tendance générale, à terme, ira dans le sens d'une fourniture externalisée des « enveloppes ». De plus, certains aspects d'infrastructure pourront à terme être considérés comme banalisés et rattachés à l'enveloppe, par exemple des serveurs à architecture x86 64-bit standard. L’organisation voudra cependant conserver le contrôle de la partie « actif technologique », même si celui-ci fonctionne de manière « dématérialisée » dans le cloud.

En conclusion

Le recours légitime au « buy » ne réduit pas la responsabilité de l'organisation vis-à-vis de la maîtrise du volet « actif technologique » du data centre. Cependant, cette évolution donnera une importance accrue aux aspects de « sourcing » liés au data centre.


Affirmation 4 : L'avenir est au data centre modulaire

Le terme « data centre modulaire » recouvre une pléthore de concepts différents, depuis l'offre de sous-ensembles dans des data centres classiques, jusqu'aux data centres « mobiles » logés dans des conteneurs aux normes maritimes en passant par toutes les variantes de « shelters ». Tous les acteurs du marché se sont mobilisés sur cette thématique, qui « parle » à des utilisateurs confrontés à l'apparition de nouveaux besoins business plus fréquents et plus immédiats.

Si l'on se concentre sur le segment des « shelters » et conteneurs, il convient d'observer que cette offre, qui adresse pour le moment un marché limité, demeure opportuniste et artisanale. Tous les grands acteurs du marché ont inscrit une telle offre à leur catalogue (citons HP, IBM, SGI-Rackable, Bull, Sun/Oracle, Cisco...), et nombre de fournisseurs d'équipements de data centre ont fait de même (par exemple Emerson).

Les arguments commerciaux de ces offres reposent sur un déploiement rapide, un coût largement inférieur aux data centres classiques, une plus grande « mobilité » et flexibilité, et – c'est dans l'air du temps – des performances PUE extrêmement impressionnantes... du moins sur le papier. Le fait de n'avoir à refroidir qu'un espace confiné permet effectivement d'espérer des performances intéressantes … mais qui dépendent largement des équipements installés.

Les ventes ne sont toutefois pas encore au rendez-vous, et la production demeure fortement teintée d'artisanat, quand elle n'est pas purement et simplement sous-traitée. De plus, les prix pratiqués manquent de clarté et restent fort élevés par rapport à ce que devrait permettre cette technologie. Enfin, même si les fournisseurs clament qu'il est possible d'implanter d'autres matériels que les leurs dans ces infrastructures, ces offres demeurent souvent un moyen d'imposer les solutions du constructeur.

Dans la réalité, ces solutions posent des problèmes spécifiques. Tout d'abord, il n'est pas si simple de les implanter puisqu'elles constituent des « enveloppes » qui doivent être «desservies » comme pour tout data centre. Le format des conteneurs maritimes, notamment, impose de sérieuses contraintes d'implantation des équipements et des baies. Ceci conduit certains constructeurs comme HP à imaginer des solutions mettant en œuvre plusieurs conteneurs assemblables. Il apparaît cependant que les prix de ces solutions demeurent élevés, le marché n'étant encore qu'une « niche » limitée.

Le marché des « shelters » et conteneurs devrait décoller dans les prochaines années sans se substituer aux infrastructures classiques, sauf dans des cas précis : si une offre plus mûre et plus industrielle se développe, de telles solutions seraient particulièrement attractives dans les pays émergents et en développement, associées à des solutions énergétiques appropriées.


En conclusion

Les solutions de data centre modulaire en conteneur ou « shelter » sont une addition bienvenue à l'offre de data centres classiques pour répondre à des besoins de niche spécifiques (besoins militaires, sites industriels distants ou difficiles (mines, exploration pétrolière, etc.), contraintes immobilières (centres de calcul HPC, notamment en milieu universitaire). Pour qu'elles puissent aller au delà, un pas supplémentaire important en termes de design produit, d'industrialisation et d'abaissement des (vrais) coûts reste nécessaire.


Conclusion générale

Dans les prochaines années, l'infrastructure « data centres » de l’économie restera au cœur de la performance des entreprises et des organisations, des fournisseurs de services, et plus généralement de la société toute entière.

Elle fédérera des « méga data centres », en général partagés (cloud…) ou dédiés aux services à très large public, et des data centres distribués sur l'ensemble des territoires, spécialisés (organisations utilisatrices) ou plus généralistes (services locaux, distribution de contenu, etc.). L'ensemble de ces systèmes participera activement d'une société connectée, et y sera également nécessaire.

Plus immédiatement, les options ouvertes aux organisations utilisatrices pour exploiter efficacement les actifs technologiques stratégiques que constituent leurs data centres s'ouvrent et se diversifient. Une approche proactive des problématiques de sourcing et d'architecture technique est impérative, les solutions étant multiples.

Bref, il faut aligner l'infrastructure data centre sur la stratégie de l’organisation, non d'aligner la stratégie sur de prétendues tendances technologiques inscrites dans le marbre – il n'y en a pas !


Duquesne Group
Mercredi 12 Septembre 2012

Home Home    Mail Mail    Print Print    Zoom + Zoom +    Zoom - Zoom -    Share Share


Duquesne Research Newsletter