Duquesne Group Duquesne Group

English version
Blog des experts

Les avis et les commentaires exprimés dans les blogs sont ceux des experts individuels. Ils ne représentent pas nécessairement l'opinion du cabinet. Contactez-nous pour en savoir +
French version
Blogs

In these blogs, individual experts freely express their own opinions and comments. They do not necessarily reflect the opinion of the firm. Contact us to find out more


Canicule : cauchemar en salle informatique !


Avec les records de chaleurs vécus cet été, des salles informatiques ont connu des surchauffes.

Cela a pu provoquer des dégâts sur les serveurs et le stockage. Quels sont les conséquences ? et quelles sont les solutions ?




copyright EBesluau
copyright EBesluau

39,7 ° C à l’ombre à Paris en juillet

Ces températures sont rares mais ont été atteintes cette année en juillet dans Paris. Bien des systèmes de climatisation ne sont pas conçus pour de telles chaleurs. Et même s’ils arrivent à abaisser de 6° C la température, pour les serveurs informatiques cela reste dans la zone de douleur.

Qui cet été n’a pas connu l’un des phénomènes suivants :

  • Un bruit élevé de ventilation … « quand on passe près de la salle IT, on est frappé par le bruit des ventilateurs » en effet ils sont au maximum et peuvent d’ailleurs flancher avec des surchauffes fatales. Il s’agit bien sûr des ventilateurs internes des serveurs.

  • Une remonté d’alerte pour température trop élevée : les responsables qui remontent ce type d’alerte (heureusement, il y en a) ont reçu sur leur smartphone l’information comme quoi le seuil de température était franchi (un client me dit : « on a atteint 70° C le week-end dans tel serveur»)

  • La nécessité d’arroser au jet d’eau près des climatiseurs externes. Pour augmenter leur efficacité en refroidissant l’air ambiant. On m’a rapporté deux cas de ce genre cet été.

  • L’obligation d’ouvrir la porte de la salle technique et d’y installer un gros ventilateur. « on essaie de faire sortir la chaleur ».

  • La recherche d’un climatiseur mobile pour le poser dans la salle en complément de ce qui existe déjà. « Malheureusement, ils sont pris d’assaut dans les magasins»…

Bref la situation n’est pas réjouissante et bien des « salles techniques » montrent leurs limites et leur fragilité à la chaleur.

Un ordinateur, ça chauffe énormément

On oublie souvent en effet qu’un ordinateur, une baie de disques, un routeur de réseau, tout cela émet des centaines de watts qui s’accumulent dans les salles et qu’il faut extraire.

On considère au « doigt mouillé » que pour 100 watts consommés par des équipements, il faut encore mettre 100 watts pour « faire sortir » la chaleur, seule condition au maintien de la température à niveau correct.

Entendons-nous bien, les équipements actuels chauffent beaucoup moins qu’autrefois. Considérée à puissance informatique égale, la baisse de chaleur émise est même remarquable, grâce aux progrès réalisés par Intel et autre fondeurs en particulier et grâce aux augmentations de densité des disques par ailleurs.

Un phénomène joue en revanche défavorablement : la miniaturisation des équipements. Ils émettent moins de chaleur mais sont beaucoup plus petits et se superposent en armoire. On peut très vite arriver à 3500 watts dans un rack. Une petite salle de deux racks dans un bureau en plein Paris dégagera 7000 watts sur quatre mètres carrés ! Impossible d’y obtenir une température décente, surtout s’il fait chaud dehors et que la climatisation n’est prévue que pour les bureaux. L’ajout d’une climatisation mobile ou d’un ventilateur (en laissant la porte calée ouverte avec une chaise !) est juste un bricolage d’amateur de risques.

Bref, on le voit sur ces exemples, la « petite salle technique dans les bureaux » représente un risque de défaillance fort et probablement devenu inacceptable de nos jours. Un serveur qui a surchauffé tombera en panne un jour ou l’autre, sa durée de vie est sujette à caution. Je déconseille fortement ce type d’aménagement. Il faut en sortir.


L’exode vers les Data Center ou le cloud a un coût

D’autant plus qu’on se demande bien ce que ces serveurs font là.

Mis à part quelques équipements qui nécessiteraient la proximité des bureaux (cache heuristique de stockage, NAS, … et encore) ou d’usine (pour des besoins de latence faible d'automates) la grande majorité de ces matériels seraient mieux dans une salle informatique digne de ce nom dans un Data Center.

C’est d’ailleurs la tendance générale et les Data Centers modernes offrent des conditions tout à fait satisfaisantes.

Autre solution : virtualiser tout cela (c’est peut-être déjà fait d’ailleurs) et recourir à une offre cloud pour recevoir les machines virtuelles et le stockage. Le niveau de « lâcher prise » sur l’ensemble est en revanche plus fort et bien des équipes informatiques ne sont pas prêtes à franchir ce pas. Le transfert des équipements en Data Center suffira dans un premier temps. Et on peut le comprendre.

Un bémol toutefois dans cette vision idéale : il faut faire attention à la connexion réseau ! Ce qui passait autrefois dans le réseau local du bâtiment va maintenant passer par un réseau longue distance, soit privé –chez un opérateur- soit public via Internet par exemple. Il convient de bien dimensionner les tuyaux et leur fiabilité / maintenance. Cela demandera de payer des abonnements et une redevance.

Coût de la location d’espace et coût réseau sont les deux postes à prévoir au budget. Il faudra aussi réfléchir à l’équipement minimal laissé sur place pour l'interconnexion.

L'opportunité d'avoir un PCA amélioré

Le fait de transférer son équipement en Data Center et d’y accéder de l’extérieur présente en termes de management de la continuité au moins deux avantages :

  • La perte simultanée des bureaux et de l’informatique était tout à fait envisageable autrefois. Après transfert de l’informatique en Data Center ou cloud, cet événement est devenu moins probable. Or il est plus simple de ne pas avoir à faire face aux deux pertes à la fois.

  • En cas de perte de bureaux, il est assez facile d’envisager le travail occasionnel à distance : les employés se connectent via réseau aux serveurs de l’entreprise à partir de PC portables par exemple. Cette connexion peut se sécuriser (serveur VPN par exemple).

De plus, le Data Center vous propose des accès sécurisés et de bonne tenue. Cela peut permettre de faciliter aussi la vie des utilisateurs nomades de l’entreprise qui ne pouvaient pas se connecter à votre informatique dans votre salle en bureaux. Désormais, avec cette solution externe, les nomades peuvent accéder à leurs données. a condition de sécuriser ces accès bien sûr.

La perte de l’informatique dans un Data Center de colocation (classé type III+ comme on dit en jargon de co-loueur) est moins vraisemblable que si ces équipements étaient encore dans votre placard surchauffé.

Vous pouvez par ailleurs mettre au point une stratégie de répartition entre deux salles ou deux data centers peu éloignés et augmenter considérablement votre résistance aux pannes et aux sinistres.

Ainsi, pour un budget relativement raisonnable vous avez augmenté votre résilience et amélioré votre PCA. Vous avez amélioré la situation des usagers nomades. C’est tout cela qu’il faut mettre en balance avant de décider de continuer à vivre dangereusement avec votre salle informatique dans les bureaux.

Emmanuel Besluau
Vendredi 25 Septembre 2015

Home Home    Mail Mail    Print Print    Zoom + Zoom +    Zoom - Zoom -    Share Share


Articles du même auteur :

Halte aux PCA bidons ! - 19/01/2014

1 2