Des datacenters plus verts chez HPE grâce à l'IA

le 03/12/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), Infrastructure, 533 mots

HPE et le laboratoire national sur les énergies renouvelables du Département américain de l'énergie ont décidé d'associer leurs efforts pour mettre au point des technologies IA et ML qui permettront d'améliorer l'efficacité énergétique des datacenters.

Des datacenters plus verts chez HPE grâce à l'IA

HP Enterprise s'est associé au National Renewable Energy Laboratory (NREL), le principal laboratoire du département américain de l'Énergie, localisé à Golden, Colorado, pour créer des systèmes d'intelligence artificielle et d'apprentissage machine afin d'améliorer l'efficacité énergétique des datacenters. Le laboratoire national du ministère de l'Énergie fournira à HPE des données historiques sur plusieurs années provenant des capteurs de son datacenter HPC Energy Systems Integration Facility (ESIF), l'un des datacenters les plus efficaces du monde. « Cette information aidera d'autres entreprises à optimiser leurs propres opérations », a déclaré le NREL. Le projet de collaboration baptisé « AI Ops R&D », devrait durer trois ans. Le NREL a déjà recueilli 16 téraoctets de données à partir des capteurs installés sur les supercalculateurs Peregrine et Eagle du datacenter de l'ESIF, et sur l'installation elle-même. Le laboratoire utilisera ces données pour entraîner des modèles de détection des anomalies afin de prévoir et de prévenir les problèmes avant qu'ils ne surviennent.

Le laboratoire a aussi pris très au sérieux l'efficacité énergétique de son datacenter. En effet, l'ESIF affiche une efficacité énergétique moyenne (PUE) de seulement 1,036, « la plus basse jamais atteinte pour un datacenter », selon notre confrère. Jusqu'à présent, la meilleure valeur rencontrée pour un datacenter était de 1,15. Cela signifie qu'actuellement l'ESIF récupère 97 % de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires situés à proximité. HPE et NREL affirment que les premiers résultats basés sur des modèles entraînés avec des données historiques ont permis de prédire ou d'identifier des événements qui s'étaient déjà produits dans l'ESIF. Leur priorité est d'évaluer l'usage de l'énergie par des indicateurs clefs comme le PUE (Power Usage Effectiveness), le WUE (Water Usage Effectiveness), et le CUE (Carbon Usage Effectiveness) en vue d'optimiser l'efficacité énergétique et la durabilité.

Le projet comprendra quatre domaines clés :

- La surveillance : collecter, traiter et analyser de gros volumes de mesures télémétriques faites sur l'IT et les installations provenant de sources disparates, avant d'appliquer des algorithmes aux données en temps réel.

- L'analyse : l'analyse big data et l'apprentissage machine seront utilisés pour analyser les données provenant de divers outils et dispositifs couvrant l'ensemble des installations du datacenter.

- Le contrôle : les algorithmes doivent permettre aux machines de résoudre les problèmes de manière autonome, d'automatiser intelligemment les tâches répétitives et d'effectuer la maintenance prédictive sur l'infrastructure IT et dans le datacenter.

- L'exploitation du datacenter : AI Ops est appelé à devenir un outil de validation pour l'intégration continue (CI) et le déploiement continu (CD) des fonctions IT de base dans le datacenter moderne.

HPE espère que le logiciel développé dans le cadre de ce projet permettra non seulement de fournir des analyses prédictives, mais aussi des services dans d'autres domaines clés. L'entreprise prévoit de livrer une pile de surveillance pour recueillir les données afin qu'elles puissent être analysées en temps réel. Elle souhaite également intégrer ses résultats à son système HPE High Performance Cluster Management (HPCM) afin de fournir un provisionnement, une gestion et une surveillance complète pour les clusters pouvant supporter jusqu'à 100.000 noeuds.

Des datacenters plus verts chez HPE grâce à l'IA

HPE et le laboratoire national sur les énergies renouvelables du Département américain de l'énergie ont décidé d'associer leurs efforts pour mettre au point des technologies IA et ML qui permettront...

le 03/12/2019, par Andy Patrizio, Network World (adapté par Jean Elyan), 533 mots

10 tendances relevées par le Gartner dans les infrastructures

Le cabinet d'études a dressé la liste des dix facteurs les plus importants qui devraient affecter l'infrastructure et l'opérationnel au cours des prochaines années. Lors de la conférence IT Symposium/XPO...

le 24/10/2019, par Michael Cooney, IDG NS (adapté par Jean Elyan), 1090 mots

Clap de fin pour OpenStack chez Suse

En perte de vitesse dans les entreprises, la plateforme cloud open source OpenStack perd un allié de poids avec la défection de Suse. L'éditeur allemand Suse spécialiste de Linux abandonne sa distribution...

le 09/10/2019, par Maryse GROS, 146 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Jamshid Rezaei

DSI de Mitel

Le DSI de Mitel, Jamshid Rezaei, a adopté le système japonais du Kaizen prônant l'amélioration continue...