Image
Salle des serveurs

Un guide pour construire des datacenters ultra-sécurisés

16 mar. 2018 - 3 min

Dans une société toujours plus numérique, les datacenters revêtent une importance croissante. Ils doivent relever des enjeux de fiabilité et de disponibilité, mais aussi de performance, tout en maitrisant leur consommation électrique… Pourtant, rien n’existe à ce jour pour guider les concepteurs et constructeurs. Bureau Veritas, en partenariat avec Jerlaure, spécialiste du datacenter, a décidé d’écrire un référentiel qui accompagnera de bout en bout la conception, la construction et l’exploitation d’un datacenter. Ce référentiel débouchera sur une certification de projet.

Une nouvelle génération de datacenter de proximité

Aujourd’hui, le datacenter est devenu une véritable usine à données et applications, organisé comme une installation industrielle, avec de lourds équipements de climatisation, des réseaux d’énergie et de circulation des fluides… Et il doit garantir fiabilité et résilience. « L’arrêt d’un gros datacenter peut impacter des pans entiers de l’économie, et engendrer des pertes identiques à l’arrêt d’une centrale nucléaire » souligne Laurent Midrier, VP Strategy & Innovation chez Bureau Veritas.

Parallèlement, le monde des datacenters évolue pour accompagner les nouveaux modes de consommation des services numériques. La multiplication des services de streaming s’accompagne d’une nouvelle exigence : une faible latence. Aux côtés des gros datacenters installés au point d’arrivée d’importantes fibres optiques internationales, apparaissent des petits datacenters de proximité. Un utilisateur installé à Lyon regardera ainsi une vidéo en streaming qui ne sera pas hébergée à Paris, mais dans la région lyonnaise.

Ces plus petits centres répondent également aux objectifs de « compliance » des entreprises qui exigent un stockage local des données – même si les applications, elles, peuvent être hébergées outre-Atlantique.
 

Construits en zone inondables ou loin des réseaux de communications

Mais si les très gros datacenters, en France et à l’international, ont été construits par de très grandes entreprises qui maitrisaient les enjeux et exigences de leurs équipements, les nouveaux datacenters de proximité n’offrent pas toujours l’efficacité, la fiabilité et la faible latence attendues. « D’énormes erreurs apparaissent parfois dans la conception et/ou la construction de ces nouveaux datacenters, faute de connaissances suffisantes de la part des entreprises qui portent ces projets. Le choix même de la localisation est parfois mal étudié, avec des sites en zone inondable ou sismique, ou même trop loin des réseaux de communication haut débit » témoigne Claude Dos Santos, directeur de Jerlaure, entreprise spécialiste du datacenter.

Des erreurs qui s’expliquent par l’absence de norme intégrée cadrant leur conception ou leur construction. Aussi, Bureau Veritas a décidé de concevoir des « guidelines » (recommandations), accompagnant bout en bout un projet de datacenter : étude d’opportunité, sélection du site, conception, construction, mise en œuvre, exploitation…

« Ces guidelines transposent un concept déployé avec succès pour les champs éoliens : la certification de projet de bout en bout. Cette certification rassure, aussi bien l’utilisateur du datacenter que  l’investisseur qui le finance, sur le fait que les meilleurs choix ont été faits en matière de conception, d’approvisionnement, de sécurité physique et de protection contre l’incendie, etc., et que ces choix sont en cohérence avec la qualité de service attendue » explique Laurent Midrier.

Laurent
Midrier

VP Strategy & Innovation

chez Bureau Veritas

Ce référentiel technique complet, débouchant sur une certification et entièrement dédié aux datacenters, permettra de rassurer tous les acteurs de l’économie digitale.

 

De nombreuses expertises requises

Pour élaborer ce référentiel, Bureau Veritas a travaillé en étroit partenariat avec Jerlaure, spécialiste du datacenter, qui accompagne des projets de grandes entreprises privées et  publiques. « Jerlaure regroupe toutes les expertises « cœur » du datacenter et possède son propre bureau d’étude, mais s’appuie aussi, selon les besoins, sur des partenaires experts dans des domaines très spécifiques, par exemple le geocooling » explique Claude Dos Santos.

Mises en commun, les expertises de Bureau Veritas et Jerlaure, respectivement dans le contrôle et la certification, et dans l’ingénierie des datacenters, ont débouché sur un référentiel qui sera ensuite décliné en différentes versions.

« Un tel référentiel est adapté à un contexte. Par exemple, en matière d’alimentation électrique, les enjeux sont différents en Europe où le réseau électrique est maillé et fiable, aux États Unis où fiabiliser l’alimentation est un sujet clé, et en Afrique où l’alimentation elle-même est un enjeu. De plus, les réglementations diffèrent d’un pays à l’autre. La première version du référentiel sera donc proposée pour la France en fin d’année, puis ensuite adaptée afin qu’à terme, les ingénieurs Bureau Veritas puissent accompagner et certifier les projets de datacenter dans chaque pays » résume Laurent Midrier.
 

Des objectifs différents, des enjeux identiques

Actuellement en test, ce référentiel sera affiné et validé d’ici la fin de cette année. Il offrira à la fois une réponse au besoin d’accompagnement des concepteurs et constructeurs de datacenters, et un « label » qui permettra à un hébergeur ou un investisseur de justifier de sa démarche, de la sécurité et de la résilience de son datacenter.

Il fiabilisera la reprise du marché que Jerlaure, en observateur privilégié, a constaté : « Après un ralentissement du marché ces dernières années, de nombreux projets sont actuellement lancés, liés aux nouveaux besoins comme le streaming, ou par de grosses entreprises souhaitant disposer d’un datacenter « privé » pour héberger leurs données sensibles. Mais quel que soit l’objectif du projet, les exigences et enjeux sont identiques et doivent être maitrisés » conclut Claude Dos Santos.

Besoin d'une information ?

Cliquez-ici