Duquesne Group Duquesne Group

English version
Recherche et Analyse

Pour éclairer les décideurs dans le domaine de la Continuité d'Activité et de la Sécurité de l'Information, Duquesne Group propose ses analyses et réflexions issues de ses réalisations concrètes en clientèle. Observation critique du terrain par nos experts, contacts permanents avec les principaux acteurs du domaine et expérience vécue dans nos missions de conseil sont nos principales sources. Contactez-nous pour en savoir +
French version
Research

To support decision makers in the management and optimisation of information systems, Duquesne Group delivers in-depth analyses of information technologies, their implementations and their markets. Our research is based on critical observation of the market by our analysts and their on-going contacts with the vendor community, together with hands-on, practical experience from our consulting work. Contact us to find out more


Evolution des datacenters : vers une consolidation raisonnée



Les grands utilisateurs mondiaux peuvent compter plusieurs centaines de centres informatiques hébergeant des applications les plus diverses. On constate depuis quelques temps une démarche de rationalisation des applications qui s'accompagne en parallèle d'une réflexion sur les data centers. Tout cela aboutit à revoir le bien-fondé des emplacements de sites, à remettre en cause les liens sites-utilisateurs et finalement à "penser global".



Evolution des datacenters : vers une consolidation raisonnée
Le terme de centre informatique recouvre une réalité multiple. En effet, entre un petit site doté de 15 serveurs sur 100 m² et un gros centre de 5.000 serveurs dans trois salles de 1.000 m², il n’y a pas de commune mesure.

On appelle couramment « centre informatique » un site technique hébergeant des applications informatiques, des données et toute l’infrastructure logicielle, système et matérielle sous-jacente. Le centre accueille aussi tous les équipements des réseaux nécessaires à l’accès des utilisateurs ainsi qu’aux divers échanges avec d’autres centres ou le monde extérieur.

Un centre informatique est doté d’un « pilotage » constitué de moyens de surveillance et de personnels : cette fonction de pilotage ne réside pas nécessairement sur le même site (voir plus loin). Le personnel sur site est donc à priori strictement réduit aux tâches localisées sur le centre : opérations manuelles, interventions physiques, contrôles d’accès, entretien, …

Evolution des datacenters : vers une consolidation raisonnée

Un modèle à plusieurs niveaux

Couramment, une hiérarchie logique à plusieurs niveaux est pratiquée. Elle permet de structurer les data centres et de classer et répartir les applicatifs.

Le modèle le plus répandu comporte trois niveaux:
  • Enterprise
  • CIP - Centre Informatique de Proximité
  • LT - Local Technique

Il existe aussi un modèle à quatre niveaux, représenté sur le schéma, qui comporte :

• Un centre mondial ou « entreprise » qui est logiquement unique, même s’il peut physiquement être multiple pour des raisons de disponibilité (voir chapitre 1). Ce centre héberge les applications dites « entreprise » qui sont considérées comme importantes (voir plus loin).

• Des centres « continentaux » en nombre limité (couramment trois dans une classique partition du monde en trois parties par exemple) qui hébergent des applications importantes et pertinentes au niveau continental. Ces centres peuvent aussi avoir comme logique de découpage un métier ou une business unit, auquel cas ils en consolident les applications majeures.

• Des centres dits « de proximité » qui peuvent correspondre à un sous découpage de type pays ou activités spécifiques ayant besoin de caractéristiques propres et plutôt locales. Ces centres sont plus nombreux et souvent assez proches d’une usine de l’entreprise ou d’un pôle d’activité précis ayant des contraintes spécifiques.

• Enfin des établissements plus petits et plus nombreux, de type « locaux techniques » qui servent à abriter des éléments techniques qu’il a été jugé utile et pratique de maintenir proches des utilisateurs.

Cette hiérarchie en quatre niveaux permet de structurer l’approche et d’établir des critères d’évolution de l’existant.

Classification des applications

Les applications, de leur côté, sont typiquement classées en trois catégories :

• Les applications « stratégiques » sont vitales, leur disparition mettrait en péril l’entreprise ; elles vont bénéficier de bons niveaux de fiabilité et de Plans de reprise élaborés. La qualité de service associée au quotidien (temps de réponse, disponibilité, …) est très élevée.

• Les applications dites « critiques » causent un grave préjudice à l’entreprise en cas de disparition de plus d’une semaine. Elles sont incluses dans les Plans de reprise avec le niveau de priorité adapté, de second ordre par rapport aux applications stratégiques. La qualité de service est là aussi appropriée.

• Les applications « standard » sont celles qui n’ont pas d’impact sur les activités en cas de perte. Elles n’en demeurent pas moins nécessaires.

Les exigences de mise en œuvre techniques de ces trois niveaux d’applications sont variables et graduées, allant d’exigences fortes pour les applications stratégiques, à des exigences courantes pour les applications standard.

Cette classification s’accompagne d’une démarche sur les interfaces à créer ou normaliser entre applications classées différemment. En effet, il est important de pouvoir dissocier des éléments applicatifs qui n’ont pas le même niveau de criticité. Cela rend possible leur localisation dans le data centre correspondant à leur niveau d’exigence.

La réalité de l’existant est contrastée

Tout groupe mondial est issu de fusions, d’acquisitions diverses, possède plusieurs métiers dont l’importance stratégique est variable et dispose de situations géographiques forcément elles-aussi multiples.

Pour toutes ces raisons, la situation réelle des groupes mondiaux s’écarte de l’idéal décrit plus haut :
• Le Data center unique est souvent de fait multiple et incomplet, de sorte que sa création nécessite des consolidations physiques et applicatives.
• Les centres de proximités sont inutilement nombreux et la proximité ne se justifie pas toujours, ou n’a plus lieu d’être, car la technologie a évolué par exemple.
• Des applications présentes dans des ‘locaux techniques’ n’ont pas de raison d’y être. Leur consolidation dans un site de proximité (ou un site continental) serait salutaire en terme de gestion et de sûreté de fonctionnement, sans parler des coûts.

Cet état de fait présente un besoin d’ajustement qui va se traduire par des consolidations, des suppressions de sites ou des créations de nouveaux sites pour l’avenir.

Le contexte technico économique de l'évolution

Synthétiquement, il est important de rappeler des éléments de coûts et de contraintes techniques qui vont conditionner la logique des évolutions possibles.

Il faut en effet tenir compte des aspects dimensionnant suivants qui vont jouer dans des sens opposés :
• Un gros centre coûte moins cher que deux plus petits centres équivalents ; les économies d’échelle sont réelles ; ce point pousse à consolider. Une baisse des coûts unitaire de 9% en cas de doublement est souvent donnée comme exemple.
• Corollaire de cela : découper un centre en deux pour le répartir sur deux sites crée des surcoûts importants, tant au niveau d’infrastructure qu’au niveau des applications dédoublées. Il est en effet difficile et coûteux de maintenir en parallèle deux lots applicatifs semblables.
• Le temps de réponse que les utilisateurs ressentiront en accédant aux applications d’un centre est dépendant de leur éloignement de ce centre. Pour certains métiers ou certaines activités industrielles, cet aspect pénalisant peut devenir sensible et justifier une présence en local.

C’est dans ce contexte complexe que les décisions d’évolution des Centres sont à prendre. En général, les grands comptes internationaux partent des constats suivants :
• Réduire les temps de réponse en créant un réseau de centres informatiques plus localisés nécessite de restructurer le parc applicatif, ce qui est onéreux.
• Dupliquer des applications sur plusieurs centres informatiques amène à les régionaliser, à perdre la vision globale et à renoncer à des économies d’échelle.
• De plus, les nécessaires synchronisations entre applications ainsi réparties font perdre les avantages et améliorations sur les temps de réponse.
• Pour répondre au mieux aux enjeux des métiers qui sont similaires dans les différentes régions du monde, il vaut mieux concevoir les applications de manière globale.
• Optimiser le coût du parc applicatif, tout au long de son cycle de vie pousse à une vision globale et centralisatrice.
• S’il existe des besoins spécifiques pour certains utilisateurs localement, il faut les satisfaire avec des applications dites locales sur des sites de proximité. Cette situation doit rester aussi limitée que possible.

C’est donc sous cet ensemble de contraintes que les décisions d’évolutions sont prises.

Evolution des datacenters : vers une consolidation raisonnée

Les mouvements d’évolution

Pour faire évoluer l’existant vers une situation cible améliorée, deux grands mouvements sont souvent observés :
• La réduction du nombre de centres de même niveau : les centres de proximité par exemple ont à priori pour vocation d’être consolidés ; la non-consolidation ne peut se justifier que par une forte nécessité comme une spécificité régionale conduisant à une impossibilité de mutualiser ou un besoin de présence au plus près d’une usine par exemple.

• Le positionnement le plus haut possible des applicatifs : ce qui peut être mis dans un site de proximité, n’a pas à rester dans un local technique ; ce qui peut être dans un centre continental n’a pas à se trouver dans un centre de proximité, etc. Ce mouvement vers le haut peut progressivement vider de leur substance des centres de bas niveau qui peuvent alors disparaître.

Ces deux grands mouvement de consolidation horizontale des centres et de remontée verticales des applications sont caractéristiques des évolutions actuelles.

Il faut aussi noter en période de pression à la baisse sur les coûts et de limitation de la prise de risque, une tendance générale à limiter les perturbations sur l’existant surtout lorsqu’il est critique et déjà bien optimisé.

Urbanisation à long terme

Pour que ces évolutions soient possibles, il faut avoir une cible en termes d’urbanisation et en tenir compte à chaque évolution.

En particulier, on sera amené progressivement à :
• découper les applications et séparer ce qui est stratégique de ce qui est standard ;
• centraliser les applications stratégiques qui possèdent toutes des exigences coûteuses justifiées ;
• sortir les applications standards des environnements stratégiques de manière à les positionner à un niveau de coût plus faible (dit low-cost standard) ;
• travailler à des interfaces d’échange entre ce qui est stratégique et ce qui est standard de manière à rendre la séparation ci-dessus viable et durable.

Les offres de « Cloud computing » peuvent fournir des solutions qui trouvent leur place dans ce cadre. Une réflexion est à mener en fonction de la maturité des réalisations. Un découpage du système d’information peut éventuellement permettre d’aller vers des solutions en « Cloud computing ».

D’autres contraintes dont il faut tenir compte

Ces deux grands mouvements sont soumis à des contraintes qui vont les restreindre et qui sont caractéristiques de certains secteurs.

On peut citer en particulier :
• Pour certain métiers ou contextes industriels, le temps de réponse est critique : il n’est pas possible alors de disposer le centre informatique trop loin des utilisateurs ou des sites industriels. Cette contrainte amène à maintenir des centres de proximité.

• Certains traitements informatiques travaillent sur de grosses quantités de données qu’il est difficile, long et coûteux de transférer. Les traitements sur ces données seront donc au même endroit que les données.

• Les considérations de sécurité et de protection face aux sinistres poussent à envisager des centres sur deux –voire trois- sites. Les distances entre ces sites seront limitées par les lois de la physique pour leur synchronisation.

Tout ceci va amener certains industriels à privilégier par exemple le rapprochement géographique entre usine et centre informatique (cas de l’automobile) ou centre de stockage de données et traitement de prévisions (exemple de la Météorologie Nationale).

Conclusion : Construction des orientations stratégiques

Les orientations stratégiques vont vers la centralisation et peuvent se formuler ainsi :

Concernant les centres informatiques

Aboutir à un nombre restreint de niveaux (typiquement trois ou quatre) :
• Le Global Data Center ou Centre d’entreprise ;
• Eventuellement définir un Data center continental par continent où l’entreprise opère ; un de ces centres pouvant prendre le rôle de Global data center ;
• Les Centres Informatiques de Proximité en nombre nécessaire et suffisant et positionnés sur les sites qui l’exigent (industriels, financiers,…) ;
• Les locaux techniques en nombre strictement limité aux implantations de l’entreprise, pour installer le juste nécessaire d’infrastructure, permettant la communication et la gestion du poste de travail.

Concernant les applications

• Privilégier la centralisation sur le Global data Center des applications dont la conception permet de diffuser des processus métiers cohérents vers des populations d’utilisateurs répartis dans le monde ;
• Favoriser sur le Global data center le réutilisation de composants applicatifs ;
• Déployer dans les centres de proximité les applications qui y sont justifiées par :
- un besoin de proximité opérationnelle (type « bord de chaîne »),
- une contrainte de temps de latence faible impossible à satisfaire autrement ;
- une exigence de conformité à un cadre réglementaire (financier, trésorerie,…).

Concernant les services connexes (pilotage, administration,…)

• principe : la localisation du pilotage des systèmes ne dépend pas de celle des centres informatiques ;
• le Global data Center et le réseau monde sont opérés en dehors du Data Center pour des raisons de sécurité ;
• le pilotage des centres informatiques de proximité est autant que possible opéré avec le pilotage central ou sur les centres de services de proximité de l’entreprise.

Ces orientations générales décrivent bien la stratégie à long terme qui est menée en matière de data center par de nombeux grands groupes.

Il est clair que ces orientations donnent leurs effets dans la durée, qu'elles doivent être publiées et maintenues. La préoccupation stratégique demeure la rationalisation d'ensemble tout en respectant des contraintes parfois antinomiques pour la continuité d'activité et la proximité des utilisateurs.
l[]ll[
Emmanuel Besluau
Lundi 9 Novembre 2009

Home Home    Mail Mail    Print Print    Zoom + Zoom +    Zoom - Zoom -    Share Share


Duquesne Research Newsletter