Le fog computing pour refonder l'IoT industriel

le 05/10/2018, par Jon Gold, IDG NS (adapté par Jean Elyan), Infrastructure, 639 mots

C'est le problème classique de l'IoT industriel : comment réduire de plusieurs heures à quelques minutes les temps d'arrêt d'un réseau de 40 usines équipées d'anciennes chaînes de fabrication et de production, gérées numériquement par 9 000 contrôleurs logiques programmables (CLP) obsolètes tournant sur de vieux PC industriels sous Windows ? La startup Nebbiolo Technologies exploite le fog computing pour relever ce défi.

Le fog computing pour refonder l'IoT industriel

Selon Nebbiolo Technologies, startup spécialisée dans le fog computing - une extension globale du cloud compunting - et dans l'automatisation, la défaillance d'un seul PC industriel sous Windows de ce client « d'envergure mondiale » dont elle n'a pas voulu révéler l'identité peut provoquer jusqu'à six heures d'arrêt des chaînes de production, une durée que ledit client voulait ramener à quelques minutes. La question est délicate. « Si ces 9 000 machines étaient hébergées dans un datacenter, on pourrait tout virtualiser et la question serait réglée », a expliqué Hugo Vliegen, vice-président de la gestion des produits chez Nebbiolo. Mais dans le cas présent, il s'agit d'un environnement hétérogène dans lequel de vieux ordinateurs exécutent des applications de contrôle critiques pour faire tourner les chaînes de production et il est tout simplement impossible de virtualiser dans le cloud ou dans un datacenter les connexions aux équipements.

Cependant, sur le plan de l'architecture, le système est un peu plus simple. Bien sûr, le nombre d'ordinateurs est important, mais ils sont tous gérés à distance. « Le principal problème concerne la visibilité et le basculement en cas de panne », a déclaré le vice-président de la gestion des produits chez Nebbiolo. « Si l'un des ordinateurs tombe en panne, le client s'expose à un temps d'arrêt de six heures », a encore déclaré mardi M. Vliegen lors d'une intervention au Fog World Congress (1 au 3 octobre) à San Francisco. « Les entreprises gaspillent des milliers de dollars en essayant de dépanner leurs systèmes, y compris en remplaçant leurs PC industriels ». La stratégie d'attaque proposée par Nebbiolo est relativement simple : elle consiste à virtualiser et à faire converger tous les noeuds de calcul au niveau de l'usine pour rendre l'ensemble du système plus visible, configurable et gérable depuis un panneau de contrôle centralisé.

Remplacer les vieux PC  Nebbiolo a utilisé ses propres noeuds pour remplacer les vieux PC industriels, mais cela ne résout qu'une partie du problème. Il a fallu également mettre à jour la couche réseau et le logiciel lui-même, puis les intégrer au nouveau système. « Il y a un énorme défrichage à faire. Entre autres choses, trouver comment cloner toutes ces applications CLP basées sous Windows », a encore expliqué Bruno Vliegen. « Comment mécaniser tout ça ? Comment faire pour réaliser une planification homogène et cohérente de 40 usines et 9000 machines ? » La connectivité entre les 9 000 automates programmables ajoute une difficulté supplémentaire. Le système fonctionne très bien quand il est connecté manuellement, en série. Mais la virtualisation de l'élément réseau posait des problèmes en termes de réglage et de synchronisation : les processeurs plus rapides et les connexions réseau déstabilisent ces systèmes soigneusement calibrés qui fonctionnent toujours de manière identique depuis des décennies.

Néanmoins, selon M. Vliegen, Nebbiolo a travaillé dur pour rendre le nouveau système hautement résilient et efficace. Le logiciel FogOS de Nebbiolo permet de synthétiser dans des langages différents les données machines qui transitent sur le nouveau réseau Ethernet. Pour l'instant, deux usines du client fonctionnent avec la solution de Nebbiolo, mais un déploiement à plus grande échelle est en préparation. « De nombreux problèmes mineurs subsistent », a reconnu Bruno Vliegen. Sur les anciens PC industriels, la connexion entre les applications qu'ils exécutaient et le terminal distant se faisait un à un. Parce que ce système était plus centralisé (avec plusieurs clients légers se connectant à plusieurs terminaux, et ainsi de suite), il a fallu procéder à une importante réorganisation de l'architecture interne. Mais, selon M. Vliegen, « cela faisait partie du travail préparatoire, et la réussite du test initial devrait faciliter le déploiement à plus grande échelle ». 

Netflix muscle ses serveurs maison avec les Epyc Rome d'AMD

Le diffuseur Netflix annonce assurer un service de 400 Gbit/s et espère ainsi se faire une place sur le marché du streaming (jeux et vidéo). Depuis 2020, Netflix est capable d'assurer un service de 200 Gbit/s...

le 23/09/2021, par Célia Séramour, 443 mots

Des cartouches LTO-9 18 To sur les librairies IBM

Le lecteur de bande magnétique LTO-9 Ultrium d'IBM promet plus de densité, plus de performances et plus de résilience. IBM a annoncé la disponibilité générale des premières cartouches et lecteurs de...

le 15/09/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 426 mots

IBM relance sa gamme Unix avec les Power E1080

Big blue garde la foi pour Unix comme pour les mainframes. IBM vient en effet d'annoncer un serveur Power E1080, le premier d'une famille basée sur le processeur Power10. Quelques semaines après l'annonce de 

le 09/09/2021, par Serge LEBLAL, 614 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...