Un centre de traitement de données (data center en anglais) est un site physique sur lequel se trouvent regroupés des équipements constituants du système d’information de l’entreprise (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne et/ou externe à l’entreprise, exploité ou non avec le soutien de prestataires1. C'est un service généralement utilisé pour remplir une mission critique relative à l'informatique et à la télématique. Il comprend en général un contrôle sur l'environnement (climatisation, système de prévention contre l'incendie, etc.), une alimentation d'urgence et redondante, ainsi qu'une sécurité physique élevée.
Des enjeux environnementaux sont liés à la consommation d'électricité des data centers, et à leur coproduit qu'est la chaleur, souvent dissipée par les serveurs.
Un centre de traitement des données se présente comme un lieu où se trouvent différents équipements électroniques, des ordinateurs, des systèmes de stockage et des équipements de télécommunications. Comme son nom l'indique, il sert surtout à traiter les informations nécessaires aux activités d'une entreprise. Par exemple, une banque peut recourir à un tel centre, lui confiant les informations relatives à ses clients, tout en traitant les transactions de ceux-ci. En pratique, presque toutes les entreprises de taille moyenne utilisent un tel centre. Quant aux grandes entreprises, elles en utilisent souvent plusieurs.
Les bases de données étant souvent cruciales au fonctionnement des entreprises, celles-ci sont très sensibles à leur protection. Pour cette raison, ces centres maintiennent de hauts niveaux de sécurité et de service dans le but d'assurer l'intégrité et le fonctionnement des appareils sur place.
Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l'espoir de les voir occupés par desserveurs. Depuis, la concentration des centres s'est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans le green computing et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés2.
Pour permettre les missions principales du centre, elles doivent assurer la bonne connexion réseau (internet, intranet, etc.) et une haute disponibilité dusystème d'information. Pour cela, différentes applications logicielles gèrent les tâches essentielles de l'activité métier des clients. Parmi ces applications, on retrouve des gestionnaires de bases de données, des serveurs de fichiers et des serveurs d'applications.
Un centre de traitement de données peut occuper une pièce, un étage ou un grand immeuble. On y retrouve des serveurs 1U (surnommés « boîtes à pizza ») ou plus, « U » correspondant à une unité de hauteur de 4,445 cm (soit 1,75 pouce) empilés dans des racks, lesquels sont arrangés pour former des rangées simples, ce qui permet de circuler facilement parmi les serveurs, tant à l'avant qu'à l'arrière. Quelques appareils, ordinateurs centraux par exemple, sont de dimensions semblables à ces racks. Ils sont souvent placés à leurs côtés.
La Climatisation à environ 20 degrés Celsius. Ce maintien est essentiel, puisque les appareils électroniques génèrent beaucoup de chaleur et deviennent défectueux lorsque la température s'élève au-delà d'une certaine limite3.
Elle est également une composante fondamentale du centre de traitement, car si il est mal conçu, il peut multiplier la consommation électrique nécessaire, pour garder une température stable des équipements et donc le coût mensuel de l'hébergement.
Il est généralement conseillé de mettre des caches dans les baies, aux emplacement inutilisés, afin que le flux d'air froid vers chaud se concentre dans les équipement, en dehors du cas précité, où cela ne sert à rien.
Le compresseur frigorifique est la base des systèmes de refroidissement, cependant, ils peuvent comporter des bains liquides permettant d'améliorer le rendement.
Ce sont notamment :
L'environnement physique des centres est sous stricte surveillance :
En 2012, dans un Centre de traitement de données, les onduleurs et la climatisation consomment la moitié de l'énergie du centre. Les serveurs modernes (2012) peuvent supporter jusqu'à 45 °C(à ne jamais dépasser), mais demandent une température de 20 à 35 °C). Or, malgré les progrès faits sur les composants (plus efficients), les serveurs tendent à être de plus en plus compacts et denses (par surface). L'efficience énergétique du serveur et du data center sont en cours d'amélioration (optimisation de la conception à l'utilisation), adaptation du besoin à la puissance du serveur, free-cooling par eau ou air). La climatisation est souvent surdimensionnée mais néanmoins en partie inefficace, en raison d'une homogénéisation thermique du volume d'air, due à une mauvaise disposition des matériels dans les salles de data centers. De nouveaux serveurs plus tolérants à la chaleur peuvent supporter de petits « pics » de chaleur et permettent de limiter ce surdimensionnement, si les équipements sont judicieusement placés. C'est le rôle (métier) de l'"urbaniste de data center" de mieux concevoir (ou réaménager) les salles pour pouvoir gérer et optimiser la puissance informatique en situation confinée (via des allées froides cloisonnées ou allées chaudes cloisonnées ou confinées par exemple ; les allées chaudes sont celles qui sont en arrière des serveurs, et les allées froides sont celles qui sont devant). Idéalement, les rangées de serveurs ne doivent pas dépasser 20 °C ou un peu plus pour les matériels récents. Ceturbanisme s'appuie sur la simulation aérolique, pour améliorer la gestion (avec éventuelle récupération/valorisation) de la chaleur dégagée par les serveurs, et pour aménager l'intérieur du data center, avec le meilleur positionnement des serveurs dans de bonnes conditions de poids, de densité, d'aération, de longueur de câbles. Cette activité est située au croisement entre les règles de l'informatique et celles de la connexion électrique et du thermicien, tout en devant faciliter la maintenance.
Une bonne « urbanisation » peut fortement améliorer l'efficience énergétique du data center. De la fin des années 2000 à 2012, on est passé de 10 à 50 % de "serveurs virtuels" ; ces derniers peuvent aussi contribuer à optimiser la gestion des flux d'énergie8.
Indésirable ici, les calories sont valorisable dans d'autres domaines: chauffage des logements9, des bureaux ou même d'arboretum6
Les communications à l'intérieur d'un centre se font maintenant presque exclusivement par Internet Protocol. Il contient donc des routeurs, descommutateurs et tout autre équipement qui permet d'assurer la communication entre les serveurs et le monde extérieur. La redondance est parfois obtenue en faisant usage de multiples équipements réseau de marques différentes.
Quelques serveurs servent à fournir aux utilisateurs de la société les services Internet et Intranet de base dont ils ont besoin : courriel, proxy, DNS,fichiers, etc.
Des équipements de sécurité réseau y sont aussi présents : pare-feu, VPN, systèmes de détection d'intrusion, etc. ainsi que des systèmes de monitoring du réseau et de certaines applications.
Le but principal d'un centre de traitement de données est d'exécuter des applications qui traitent des données essentielles au fonctionnement d'une société. Ces applications peuvent être conçues et développées en interne par l'entreprise cliente ou par un fournisseur de progiciel de gestion d'entreprise. Il peut s'agir typiquement de ERP etCRM.
Souvent, ces applications sont réparties dans plusieurs ordinateurs, chacun exécutant une partie de la tâche. Les composantes les plus habituelles sont des systèmes de gestion de base de données, des serveurs de fichiers, des serveurs d'applications, des middleware.
En 2011, on dénombrait 2 087 centres de traitement de données dans le monde. Le Groupement des industries de l’équipement électrique, du contrôle-commande et des services associés (Gimélec) estime à 130 le nombre de centres de traitement de données d'offreurs en France dont 40 % en région parisienne. Globalement les centres de traitement sont dispersés sur l'ensemble du territoire avec des zones de concentration en partie liées au réseau urbain sur les départements de Paris, d'Île-de-France (essentiellement Hauts de Seine, Seine Saint Denis), le Nord et les Bouches du Rhône. L'ouest et la région Rhône-Alpes sont également des zones privilégiées 10.
Les services informatiques des grandes entreprises sont généralement implantés dans des centres de traitement de données, dédiés ou mutualisés. Les plus gros centres dans le monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures modulaires basées sur des conteneurs qui peuvent héberger jusqu'à 1 160 serveurs11 (voir Plateforme Google), ou Facebook qui a étendu son centre de traitement de Prinevilledans l'Oregon12. Amazon a lui aussi implanté son centre de traitement dans l'Oregon compte tenu du faible coût de l'énergie dans cet état13. Des sociétés comme Microsoft ou Apple investissent des sommes considérables dans ces infrastructures14 ainsi que Twitter15. Les enjeux principaux des centres de traitement concernent l'efficacité énergétique.
Les serveurs tendent à être virtualisés. En France, un tiers des serveurs hébergés dans des datacenters serait virtualisé et un cinquième à haute densité en 2011. Ces taux devraient doubler d’ici 201316.
L'empreinte écologique globale des centres de données grandit rapidement, mais elle aurait pu être réduite par une optimisation et un partage des ressources (de 25 % environ en 2010)17 et elle peut encore l'être.
Les impacts environnementaux se concentrent lors de
La fabrication concentre les pollutions et l'épuisement des stocks de ressources non renouvelables. L'utilisation se traduit essentiellement par des émissions de gaz à effet de serre (liées à la production de l'énergie consommée par le centre de données) et des émissions des déchets d'équipements électriques et électroniques (DEEE).
Des prospectivistes estiment que le volume des données numériques transportées par le Net pourrait être multiplié par 4018 à 50 d’ici à 202019.
Deux facteurs pouvant être mieux maîtrisés et/ou valorisés sont :
Malgré des gains d'efficience énergétique des processeurs et en matière d'optimisation des réseaux20 et d'efficacité énergétique des matériels informatiques21, en raison de l'explosion des besoins, les gros centres de traitement de données sont des systèmes physiques et cybernétiques (Cyber-Physical System22,23) qui consomment des quantités importantes et croissantes d'électricité24 ; Selon un rapport Votre cloud est-il Net? (avril 2012), « Certains centres de traitement des données consomment autant d’électricité que 250 000 foyers européens. Si le « cloud »était un pays, il se classerait (en 2012) au 5e rang mondial en termes de demande en électricité, et ses besoins devraient être multipliés par trois d’ici à 2020. »19. D'après Qarnot Computing25En France, en 2013, plus de 200 Data centers consomment plus de 7 % de l'électricité du pays. Un data center de 10 000 m2 consommerait autant qu'une ville de 50.000 habitant26 et « À l'échelle européenne, la Commission estimait en 2008 que les centres de données consommaient 56 TWh27, dont la moitié pour refroidir les bâtiments »28.
La provenance de l'électricité influe sur le bilan écologique global. Au début du xxie siècle, de grands opérateurs n'utilisent que l'énergie fossile (pétrole, gaz voire charbon19) ou le nucléaire alors que d'autres investissent aussi dans les énergies renouvelables (éolien notamment) pour se fournir en électricité verte.
Les centres de traitement de données émettent beaucoup de chaleur. Ils doivent être continuellement réfrigérés ou tempérés. Les calories extraites des serveurs sont le plus souvent gaspillées (rejetées dans l'environnement où elles aggravent les effets du changement climatique en élevant la température de l'air, ou des eaux qui reçoivent les eaux de refroidissement).
Depuis peu, des expériences vient à récupérer les « joules » et à les réutiliser pour des besoins énergétiques locaux ou de proximité (chauffage, chauffage urbain, réseau de chaleur). Par exemple : L’université d'Amsterdam reçoit une eau gratuitement chauffée par le data center voisin d'Equinix28. À Roubaix (5 centres d’OVH, leader français de l'hébergement) sont refroidis par eaux et contribuent à chauffer des bâtiments proches. À Clichy, « Global Switch » chauffe une serre tropicale et aide les jardiniers à produire les fleurs de la ville. Le réseau Dalkia de chauffage urbain de Paris-Val d'Europe (Marne-la-vallée) récupère les calories d'un data center de la ZAC du Prieuré pour notamment chauffer un « centre aquatique intercommunal » et à terme offrir « 26 GWh de chaleur pour chauffer 600.000 m² de locaux tertiaires et d'équipements, répartis sur 150 hectares », soit « 5.400 tonnes de CO2/an, (…) l'équivalent des rejets de 5.000 véhicules ». En suisse IBM chauffe la piscine d'Uitikon.
Autre concept : le « siloctets » écoconçu du québecquois « Vert.com » est un silo de serveurs, grand comme un bâtiment de ville, passivement refroidi et dont les calories peuvent être récupérées par une centrale en toiture et distribuée aux voisins, testé à l'Éco-campus Hubert-Reeves dans le Technoparc de Montréal29.
« Akamai qui gère un gros volume de trafic sur le Net, semble être la première entreprise de ce secteur à avoir calculé son bilan carbone, au moyen de l’«indicateur d'efficacité de l'utilisation carbone » (Carbon Usage Effectiveness)19 ; En 2012, Les autres entreprises n’avaient pas mis à profit cet indicateur »19. Deux leviers pour améliorer le bilan carbone sont les économies d'énergie d'une part, et l'écoconception et la valorisation des calories produites d'autre part. Des mesures compensatoires (compensation carbone) sont aussi envisagées ou utilisées par certains acteurs.
Pour répondre à ces trois enjeux et après que l'expérience SETI@home ait montré l'intérêt du « calcul distribué » (en utilisant dans ce cas des ordinateurs domestiques connectés à l’Internet), certains opérateurs comme AMD ont envisagé de décentraliser leurs centres de traitement de données en un réseau distribué tel que proposé par23 d'unités (petits centres de traitement de données bénéficiant chacun d'une éolienne, maillés entre eux par des fibres optiques30,31).
Des installateurs et propriétaires de centres de traitement de données et des producteurs d'énergie32) pourraient à l'avenir associer leurs investissements dans un smart grid, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose dans son concept de « troisième révolution industrielle ».
Le cloud computing pourrait alors évoluer vers un modèle totalement décentralisé, nécessitant une « gestion dynamique du refroidissement »33,34 (refroidir là où il faut et quand il faut, et passivement tant que possible34), ainsi qu'une conception différente de la sécurité des serveurs et de leurs données, de la gestion distribuée des données, de la gestion de l'énergie35 et de la capacité des réseaux de centres de traitement de données à s'autoadapter aux fluctuations des besoins, mais aussi de l'énergie disponible36. Leurs réponses doivent être plus élastiques37, sans augmentation globale des consommations d'énergie, dans le cadre d'un green cloud38 qui reste à inventer.
Au début des années 2000, une solution complémentaire des précédentes apparait, qui pourraient être réservée aux données à fortement sécuriser. C'est de développer des réseaux de serveurs en grande partie virtuel (ou plus précisément partagés et distribués, utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant quand leur propriétaire ne les utilisent pas ou les sous-utilisent39, ce qui demande aussi de repenser la sécurité informatique). Pour cela, des systèmes d'allocation sécurisée des ressources et de répartition des tâches (éventuellement différées quand elles ne sont pas urgentes) doivent encore être testés et validés à grande échelle. Dans tous les cas la recherche et développement est à développer40. La start-up française Qarnot Computing voir 41 propose de délocaliser les serveurs chez les particuliers en lieu et place de radiateurs. Un premier essai concernera fin 2013 une centaine de logements HLM parisiens (RIVP dans le 15e arrondissement), qui seront gratuitement chauffés par de petits serveurs alimentés par le réseau électrique et connectés à l'Internet et via une plateforme sécurisée, dite "Q.Ware". Plus les processeurs travaillent, plus le chauffage est important, mais le résident du logement contrôle la température grâce à un thermostat. En été des serveurs classiques prennent le relai.
L'organisme Uptime Institute a défini une classification internationalement reconnue des centres de traitement de données en quatre catégories, appelées « Tier »:
Voir aussi