Visitez DC3, une des derniers datacenters d’Illiad

A l’heure où Google joue la carte de la transparence en faisant visiter ses locaux via Street View, j’ai décidé de vous faire visiter un tout autre endroit : le datacenter DC3 d’Illiad, dont les portes ont été ouvertes au public lors des dernières Journées du patrimoine, en septembre dernier. Inutile de vous rappeler qu’Illiad n’est autre que la maison mère de Free.

Avant de commencer la visite, je tiens tout particulièrement à remercier vivien, l’administrateur du forum lafibre.info pour m’avoir permis de réutiliser ses photos.

DC3 est donc un Datacenter tout neuf puisqu’il a ouvert ses portes fin août / début septembre 2012.

Visite DC31

Très bon accueil , avec hot-dog / frites / glace gratuite à la sortie d’après vivien.

Aménagement et but du site

Situé à Vitry sur Seine, le campus s’étend sur 11 800 m2 en incluant les espaces prévus pour la production d’énergie et de froid. Globalement, le centre est divisé en quatre grandes salles de 1 600 m2, chacune pouvant accueillir 1 900 baies. Chaque salle se présente sous forme de divisions grillagées de 250 m2 équipées de 2 x 320 kW d’énergies et destinées à être louées à des PME ou des grands comptes.

Une des quatre grandes salles.

Ici, pas de location d’hébergement mutualisé ou autre. Uniquement 22 « suites » pour 22 clients. Illiad sort donc le grand jeu puisque DC3 est certifié Tiers IV, c’est-à-dire que tout est redondé en 2N afin d’offrir un taux de disponibilité de 99,995% .

Le coin de l’électricien

Pour alimenter tout cela, le site dispose d’une double arrivée ERDF 20 000V de capacité 27,6 MVA.Six transformateurs 20 000V / 400V de 3200 kVA se répartissent la charge. Illiad annonce utiliser une huile végétale pour améliorer le rendement de ses transformateurs déjà taillés pour du haut vol. De plus, ces transformateurs ne nécessitent aucun gaspillage d’énergie en refroidissement puisqu’ils sont placés en extérieur.

Transformateurs du centre.

Comme beaucoup de datacenters, Illiad utilise un code couleur pour différencier les circuits électriques :

  • Rouge : alimentation de 2 500 kW n°1 des divisions 1 à 11.
  • Jaune : alimentation de 2 500 kW n°2 des divisions 1 à 11.
  • Vert : alimentation de 2 500 kW n°1 des divisions 12 à 22.
  • Bleu : alimentation de 2 500 kW n°2 des divisions 12 à 22.
  • Noir : alimentation de la première chaîne de froid.
  • Blanc : alimentation de la seconde chaîne de froid.

Comme tout est redondé, chaque couleur dispose de son transformateur de 3 mW et son groupe électrogène de 1,5 mW pour 400V.

Les groupes électrogènes.

Il y a 4 TGBT dans 4 salles différents (vous aurez compris une salle par couleur sachant que chaque baie est alimentée par deux couleurs) équipés de plusieurs Masterpack de 1 000A, 6 onduleurs par couleur et de batteries pour une autonomie de 10 minutes. Il y a deux automates par salles.

Entrée des 4 TGBT avec écrans pour surveiller les alarmes.

Intérieur du TGBT D.

L’automate primaire du TGBT D

Les onduleurs du TGBT D

Les batteries, qui prennent le relais en cas de panne pendant maximum 10min, le temps que les groupes électrogènes démarrent.

Donc si ERDF n’envoie plus de courant pendant plus de 10 secondes (la majorité des pannes font moins), les groupes électrogènes sont préchauffés et démarrent en seulement 30 secondes. Le réservoir de gazole fait 1 000 litres qui se rempli automatiquement via un double circuit relié à deux cuves lorsqu’elle descend sous la barre des 300 litres. On a donc une réserve pour 50h à pleine charge.

Chaque groupe a deux démarreurs, deux blocs de batteries, double ventilation… Absolument tout est doublé ! Au niveau du moteur en lui même ce ne sont autre que des moteurs diesels de bateau pour faciliter leur maintenance. Niveau refroidissement, l’air a été choisi comme solution (certains hébergeur utilisent de l’eau).

Il y a de quoi faire un ou deux pleins là…

Le coin du plombier / chauffagiste

Côté refroidissement,le froid est apporté via un circuit de distribution d’eau glacé bouclé et 35 armoires de climatisation 200 kW classiques. Illiad utilise un système de baies avec allée froide sur-pressurisée.

Rrangée de serveur Online Dedibox SC (Dell XS11-VX8)

L’air frais est donc injecté via un faux plancher de 110 cm de haut ! Pas de faux plafond car tous les câbles cuivres / fibres passent par des chemins de câbles suspendus.

Chacune des quatre grande salle a deux arrivées fibres provenant de deux salles télécoms (meet-me-room) où les opérateurs de transit installent les routeurs afin de desservir les clients. Tout est systématiquement redondé dans ces deux meet-me-room.

Une des deux meet-me-room

Les 10 centrales de traitement d’air (drycoolers) utilisent un échangeur avec l’air sur-dimensionné afin de faire tourner les ventilateurs lentement pour limiter les nuisances sonores pour les voisins (on est en pleine ville). 18MW de capacité par 40C extérieurs. Le tout est mis dans une enceinte de 7 mètres de haut insonorisée. L’arrivée d’air se fait par des tunnels insonorisés au niveau du sol. Le système est extrêmement silencieux ! L’eau utilise pour le circuit de refroidissement est composé à 30% de glycol afin d’être hors gel.

Les ingénieurs se demandent même s’il était nécessaire de dépenser autant en refroidissement…

Le coin des pompiers

Si le datacenter prend feu Illiad joue la carte de l’innovation. Adieu gaz FM200 ou Azote pour des raisons très simples :

  • 1 600 m2 hauts de plafond c’est un volume immense.
  • Les bouteilles coûtent un fortune à recharger.
  • Impossible de relâcher du FM200 dans l’atmosphère, il faut faire venir une entreprise spécialisée…

Du coup, ils ont du réfléchir à un autre système pour éteindre le feu. En partant du principe qu’un incendie a besoin d’oxygène, de chaleur et de matériau combustible, il suffirait d’éliminer un de ces éléments pour l’inhiber ou l’éteindre. Free a donc opté pour le brouillard d’eau, censé supprimer deux éléments : la chaleur et l’oxygène, en diffusant l’eau à une pression de 130 bars par des buses spéciales. C’est bien pensé car seules les têtes exposées à une flamme s’allument.

Ah et notons qu’il ne faut pas uniquement une chaleur de plus de 55° pour que tout s’allume. L’air de chaque salle est analysé en permanence grâce à une station bardée de sondes…

Le test du brouillard.

Voili voilou, je pense qu’on a fait le tour de l’essentiel. Si vous souhaitez plus d’informations sur DC3, le lien est en haut de page. Vous pouvez aussi consulter le topic dont je me suis largement inspiré sur lafibre.info. Si ça vous plaît, je tenterai les datacenters d’OVH. C’est toujours intéressant de voir ce qui se cache derrière les termes barbares que sont Cloud Computing.

N’hésitez pas à réagir !

Cet article vous a plu ? Partagez-le sur les réseaux sociaux !

Twitter Facebook Google Plus email