Des datacenters plus verts chez HPE grâce à l'IA

le 03/12/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), Infrastructure, 533 mots

HPE et le laboratoire national sur les énergies renouvelables du Département américain de l'énergie ont décidé d'associer leurs efforts pour mettre au point des technologies IA et ML qui permettront d'améliorer l'efficacité énergétique des datacenters.

Des datacenters plus verts chez HPE grâce à l'IA

HP Enterprise s'est associé au National Renewable Energy Laboratory (NREL), le principal laboratoire du département américain de l'Énergie, localisé à Golden, Colorado, pour créer des systèmes d'intelligence artificielle et d'apprentissage machine afin d'améliorer l'efficacité énergétique des datacenters. Le laboratoire national du ministère de l'Énergie fournira à HPE des données historiques sur plusieurs années provenant des capteurs de son datacenter HPC Energy Systems Integration Facility (ESIF), l'un des datacenters les plus efficaces du monde. « Cette information aidera d'autres entreprises à optimiser leurs propres opérations », a déclaré le NREL. Le projet de collaboration baptisé « AI Ops R&D », devrait durer trois ans. Le NREL a déjà recueilli 16 téraoctets de données à partir des capteurs installés sur les supercalculateurs Peregrine et Eagle du datacenter de l'ESIF, et sur l'installation elle-même. Le laboratoire utilisera ces données pour entraîner des modèles de détection des anomalies afin de prévoir et de prévenir les problèmes avant qu'ils ne surviennent.

Le laboratoire a aussi pris très au sérieux l'efficacité énergétique de son datacenter. En effet, l'ESIF affiche une efficacité énergétique moyenne (PUE) de seulement 1,036, « la plus basse jamais atteinte pour un datacenter », selon notre confrère. Jusqu'à présent, la meilleure valeur rencontrée pour un datacenter était de 1,15. Cela signifie qu'actuellement l'ESIF récupère 97 % de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires situés à proximité. HPE et NREL affirment que les premiers résultats basés sur des modèles entraînés avec des données historiques ont permis de prédire ou d'identifier des événements qui s'étaient déjà produits dans l'ESIF. Leur priorité est d'évaluer l'usage de l'énergie par des indicateurs clefs comme le PUE (Power Usage Effectiveness), le WUE (Water Usage Effectiveness), et le CUE (Carbon Usage Effectiveness) en vue d'optimiser l'efficacité énergétique et la durabilité.

Le projet comprendra quatre domaines clés :

- La surveillance : collecter, traiter et analyser de gros volumes de mesures télémétriques faites sur l'IT et les installations provenant de sources disparates, avant d'appliquer des algorithmes aux données en temps réel.

- L'analyse : l'analyse big data et l'apprentissage machine seront utilisés pour analyser les données provenant de divers outils et dispositifs couvrant l'ensemble des installations du datacenter.

- Le contrôle : les algorithmes doivent permettre aux machines de résoudre les problèmes de manière autonome, d'automatiser intelligemment les tâches répétitives et d'effectuer la maintenance prédictive sur l'infrastructure IT et dans le datacenter.

- L'exploitation du datacenter : AI Ops est appelé à devenir un outil de validation pour l'intégration continue (CI) et le déploiement continu (CD) des fonctions IT de base dans le datacenter moderne.

HPE espère que le logiciel développé dans le cadre de ce projet permettra non seulement de fournir des analyses prédictives, mais aussi des services dans d'autres domaines clés. L'entreprise prévoit de livrer une pile de surveillance pour recueillir les données afin qu'elles puissent être analysées en temps réel. Elle souhaite également intégrer ses résultats à son système HPE High Performance Cluster Management (HPCM) afin de fournir un provisionnement, une gestion et une surveillance complète pour les clusters pouvant supporter jusqu'à 100.000 noeuds.

Data Dynamics mise sur l'IA pour optimiser le stockage hybride

Après le rachat d'Infintus Innovation en 2020, Data Dynamics a musclé ses solutions de migration et de gestion des données en intégrant les outils IA de la start-up indienne. Fondée en 2012, à Teaneck dans le...

le 15/01/2021, par Serge LEBLAL, 364 mots

Plus de cloud chez DDN avec Tintri

Bien connu dans le monde du HPC pour ses solutions de stockage hautes performances, DataDirect Networks opère depuis un peu plus de deux ans un élargissement de son portefeuille produit avec ses solutions...

le 08/01/2021, par Serge LEBLAL, 458 mots

StorPool pousse les performances flash sur Infiniband, RDMA et...

Solution de stockage bloc en mode distribué, StorPool est capable de fournir plus d'un million d'IOPS par serveur et des temps de réponse inférieurs à la milliseconde avec des SSD NVMe.

le 06/01/2021, par Serge LEBLAL, 758 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Jamshid Rezaei

DSI de Mitel

Le DSI de Mitel, Jamshid Rezaei, a adopté le système japonais du Kaizen prônant l'amélioration continue...