Des datacenters plus verts chez HPE grâce à l'IA

le 03/12/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), Infrastructure, 533 mots

HPE et le laboratoire national sur les énergies renouvelables du Département américain de l'énergie ont décidé d'associer leurs efforts pour mettre au point des technologies IA et ML qui permettront d'améliorer l'efficacité énergétique des datacenters.

Des datacenters plus verts chez HPE grâce à l'IA

HP Enterprise s'est associé au National Renewable Energy Laboratory (NREL), le principal laboratoire du département américain de l'Énergie, localisé à Golden, Colorado, pour créer des systèmes d'intelligence artificielle et d'apprentissage machine afin d'améliorer l'efficacité énergétique des datacenters. Le laboratoire national du ministère de l'Énergie fournira à HPE des données historiques sur plusieurs années provenant des capteurs de son datacenter HPC Energy Systems Integration Facility (ESIF), l'un des datacenters les plus efficaces du monde. « Cette information aidera d'autres entreprises à optimiser leurs propres opérations », a déclaré le NREL. Le projet de collaboration baptisé « AI Ops R&D », devrait durer trois ans. Le NREL a déjà recueilli 16 téraoctets de données à partir des capteurs installés sur les supercalculateurs Peregrine et Eagle du datacenter de l'ESIF, et sur l'installation elle-même. Le laboratoire utilisera ces données pour entraîner des modèles de détection des anomalies afin de prévoir et de prévenir les problèmes avant qu'ils ne surviennent.

Le laboratoire a aussi pris très au sérieux l'efficacité énergétique de son datacenter. En effet, l'ESIF affiche une efficacité énergétique moyenne (PUE) de seulement 1,036, « la plus basse jamais atteinte pour un datacenter », selon notre confrère. Jusqu'à présent, la meilleure valeur rencontrée pour un datacenter était de 1,15. Cela signifie qu'actuellement l'ESIF récupère 97 % de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires situés à proximité. HPE et NREL affirment que les premiers résultats basés sur des modèles entraînés avec des données historiques ont permis de prédire ou d'identifier des événements qui s'étaient déjà produits dans l'ESIF. Leur priorité est d'évaluer l'usage de l'énergie par des indicateurs clefs comme le PUE (Power Usage Effectiveness), le WUE (Water Usage Effectiveness), et le CUE (Carbon Usage Effectiveness) en vue d'optimiser l'efficacité énergétique et la durabilité.

Le projet comprendra quatre domaines clés :

- La surveillance : collecter, traiter et analyser de gros volumes de mesures télémétriques faites sur l'IT et les installations provenant de sources disparates, avant d'appliquer des algorithmes aux données en temps réel.

- L'analyse : l'analyse big data et l'apprentissage machine seront utilisés pour analyser les données provenant de divers outils et dispositifs couvrant l'ensemble des installations du datacenter.

- Le contrôle : les algorithmes doivent permettre aux machines de résoudre les problèmes de manière autonome, d'automatiser intelligemment les tâches répétitives et d'effectuer la maintenance prédictive sur l'infrastructure IT et dans le datacenter.

- L'exploitation du datacenter : AI Ops est appelé à devenir un outil de validation pour l'intégration continue (CI) et le déploiement continu (CD) des fonctions IT de base dans le datacenter moderne.

HPE espère que le logiciel développé dans le cadre de ce projet permettra non seulement de fournir des analyses prédictives, mais aussi des services dans d'autres domaines clés. L'entreprise prévoit de livrer une pile de surveillance pour recueillir les données afin qu'elles puissent être analysées en temps réel. Elle souhaite également intégrer ses résultats à son système HPE High Performance Cluster Management (HPCM) afin de fournir un provisionnement, une gestion et une surveillance complète pour les clusters pouvant supporter jusqu'à 100.000 noeuds.

La plupart des datacenters ne répondent pas aux besoins de leurs...

Selon une enquête réalisée conjointement par Forbes Insights et Vertiv , les entreprises doivent investir dans leurs datacenters et pas l'inverse. Selon un rapport publié par Forbes Insights et Vertiv, 29 %...

le 31/03/2020, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 552 mots

Quoi de neuf dans le serverless

La distribution automatique de la logique et des données à la périphérie réduira la latence au minimum pour les utilisateurs finaux, sans que les développeurs aient à se préoccuper du provisionnement, de la...

le 18/02/2020, par Brecht De Rooms, Infoworld (adaptation Jean Elyan), 1750 mots

Cisco Live 2020 : Kubernetes préinstallé sur les systèmes HCI...

Dans son approche multicloud, Cisco mise aujourd'hui sur sa plateforme HCI HyperFlex pour accompagner les entreprises qui désirent développer et déployer des applications distribuées. Et, ce, avec le concours...

le 29/01/2020, par Serge LEBLAL, 1099 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Jamshid Rezaei

DSI de Mitel

Le DSI de Mitel, Jamshid Rezaei, a adopté le système japonais du Kaizen prônant l'amélioration continue...