fbpx

Retour du data center sous-marin de Microsoft à la surface après deux ans d’immersion

Par

le

Microsoft a remonté son data center expérimental sous-marin à la surface après deux ans avec des résultats prometteurs.

La demande en data centers devant augmenter considérablement dans un avenir prévisible, les entreprises de technologie fournissant des services de cloud et d’informatique distribuée recherchent de plus en plus des moyens rapides, rentables et respectueux de l’environnement pour le déploiement et la maintenance de leur matériel. Microsoft, étant l’un des plus grands acteurs dans ce domaine, a expérimenté l’idée de submerger un centre de données sous l’eau dans le cadre du projet Natick, rendant son matériel physiquement inaccessible aux humains dans le but d’améliorer la fiabilité et de comparer les performances avec les déploiements terrestres. Après deux ans, l’engin en acier de 12 mètres de long abritant 864 serveurs sur 12 racks a été remonté à la surface, Microsoft trouvant la solution réalisable, fiable et économe en énergie.

En juin 2018, Microsoft a lancé le projet Natick qui a vu ce tube en acier rempli d’azote sec submergé de 35 mètres sous l’eau dans le fond marin au large des îles Orcades en Écosse. Alimenté par l’énergie éolienne d’un réseau à proximité, l’expérience a été menée pour étudier la faisabilité d’un centre de données sous-marin qui entraînerait une latence plus faible pour les populations côtières proches avec un temps de déploiement considérablement réduit par rapport aux installations traditionnelles.

Après deux ans, le conteneur scellé recouvert d’une mince couche d’algues, de balanes et d’anémones de mer a maintenant été remonté à la surface, lavé à la puissance et retiré de sa base triangulaire remplie de ballast et transporté sur le continent pour une analyse détaillée.

Dans ses conclusions, Microsoft a révélé que le centre de données sous-marin était huit fois plus fiable qu’une configuration en double déployée sur terre. Aidé par l’azote sec chimiquement inerte, l’absence d’oxygène et d’humidité autour des serveurs les aurait protégés de la corrosion, ainsi que d’autres facteurs tels qu’une température stable et l’absence de vibrations et de bosses causées par l’activité humaine.

Ces serveurs, dont quelques-uns ont échoué, sont maintenant retirés par les chercheurs de Project Natick pour être envoyés à Redmond pour une analyse détaillée et déterminer la ou les causes de leur haute fiabilité par rapport aux déploiements traditionnels.

Utilisé pour mener des recherches sur le changement climatique et prévoir les précipitations en Afrique subsaharienne et les bactéries infectieuses, le Projet Natick a été impliqué dans la recherche de moyens de détecter et de traiter le cancer et a également participé à l’initiative de [email protected] pour mieux comprendre le Covid-19.

Au lieu de s’appuyer sur la plateforme Azure de Microsoft, ce projet d’informatique distribuée a fonctionné sur des serveurs génériques avec une capacité de traitement similaire à celle de «plusieurs milliers d’ordinateurs personnels haut de gamme».

L’expérience montrant des résultats prometteurs, Microsoft cherche maintenant à exploiter cette solution pour déployer ses services cloud Azure qui pourraient voir plus d’une douzaine de navires de la taille des îles du Nord reliés entre eux.

«Plus de la moitié de la population mondiale vit à moins de 200 km de la côte», déclare Microsoft, qui pourrait bénéficier d’un Internet à faible latence pour une meilleure navigation sur le Web, le streaming vidéo et les jeux en ligne avec des centres de données sous-marins situés à proximité.


Articles recommandés