Mythic AI récolte des fonds pour produire ses puces edge en masse

le 25/05/2021, par Andy Patrizio, IDG NS (adapté par Jean Elyan), Infrastructure, 560 mots

Lancée en 2012, la start-up Mythic Ai basée à Redwood City, en Californie, se spécialise dans l'inférence avec son processeur in-memory.

Mythic AI récolte des fonds pour produire ses puces edge en masse

Six mois seulement après avoir dévoilé son premier processeur d'inférence en IA, Mythic AI a annoncé un tour de table de séries C d'un montant de 70 millions de dollars afin de démarrer la production en masse de ses puces et développer sa prochaine génération de matériels et logiciels. En novembre, l'entreprise avait annoncé une puce Analog Matrix Processor (AMP) M1108 - sur base Risc-V 32 bits - destinée aux déploiements d'IA à la périphérie (edge), pour répondre à des applications multiples, dont la fabrication, la vidéosurveillance, les villes et maisons connectées, l'AR/VR et les drones. Créée il y a neuf ans, l'entreprise dont le chiffre d'affaires est encore nul, est soutenue par de gros poids lourds. Le dernier cycle d'investissement a été initié par le géant du capital-risque BlackRock et par Hewlett Packard Enterprise (HPE). Parmi les autres investisseurs figurent Alumni Ventures Group et UDC Ventures.

Mythic AI a déclaré qu'elle utiliserait ce dernier financement pour accélérer le projet de mise en production de masse de son processeur M1108 et étendre le support des clients partout dans le monde, développer ses offres logicielles et sa plate-forme matérielle de prochaine génération. Dans la phase d'apprentissage machine, l'inférence vient après l'entrainement et ses exigences de calcul sont beaucoup plus faibles. L'entrainement a besoin de la puissance massive des GPU, des FPGA et des CPU, alors que l'inférence est limitée à une comparaison oui/non et l'usage d'un CPU est superflu. À titre de comparaison, le premier processeur d'inférence d'Intel, le Nervana (abandonné depuis), ne consommait que 10 watts. Un CPU consomme 200 watts et un GPU jusqu'à 500 watts. Le M1108 ne consommerait que 4 watts. On comprend pourquoi il pourrait être idéal pour les déploiements edge basse consommation.

 

L'Analog Matrix Processor M1108 de Mythic. (Crédit : Mythic)

Les puces M1108 sont des processeurs capables d'offrir des performances élevées (jusqu'à 35 billions d'opérations par seconde (TOPS) avec 128 unités AMP) tout en consommant peu d'énergie. Au coeur du M1108 se trouve le Mythic Analog Compute Engine (MACEM) qui effectue le calcul analogique en mémoire et exécute des modèles de réseaux neuronaux profonds sur la puce et stocke ses paramètres (les Weights) sans DRAM externe. Chaque moteur Mythic Analog Compute Engine (ACE) est complété par un sous-système numérique qui comprend un nanoprocesseur RISC-V 32 bits, un moteur vectoriel SIMD, 64 Ko de mémoire vive statique SRAM et un routeur réseau (Network-on-Chip ou NOC). Il est basé sur un design M.2 de plus en plus courant dans les conceptions de SSD. Le M.2 a la taille d'un chewing-gum et se branche sur la carte mère, à plat. Selon la carte mère, le M.2 utilise du PCI Express de Gen3 ou de Gen4. La carte processeur Mythic possède une interface PCIe à quatre voies dont la bande passante peut atteindre 2 Go/s.

Les OEM pourront choisir entre un processeur AMP Mythic M1108 à puce unique et diverses configurations de cartes PCIe, notamment les facteurs de forme M.2 M Key et M.2 A+E Key, pour répondre à différents besoins. Sur le plan logiciel, le M1108 prend en charge les frameworks d'apprentissage machine standards comme PyTorch, TensorFlow 2.0 et Caffe. La start-up Mythic n'a pas précisé à quel moment elle comptait commercialiser ses produits.

Kneron vise l'ermbarqué avec sa puce KL730 taillée pour l'IA

Axée sur l'image, la puce d'intelligence artificielle KL730 de Kneron devrait permettre de nombreuses améliorations dans les domaines de l'edge computing, de la sécurité et de l'automobile. Dénommée KL730,...

le 22/08/2023, par Jon Gold / Network World (adaptation Jean Elyan), 533 mots

Volumez repense le stockage cloud en misant sur la performance...

Fondé par des vétérans dans l'industrie du stockage, Volumez promeut un logiciel d'orchestration du stockage qui exploite des ressources Linux pour exécuter des charges de travail exigeantes en utilisant une...

le 23/06/2023, par Serge LEBLAL, 939 mots

Des serveurs Lenovo edge pour l'IA et le traitement des données

Les serveurs Lenovo ThinkEdge offriront une plus grande capacité de traitement là où les données sont générées et permettront aux entreprises d'effectuer de l'inférence en temps réel à la périphérie. Au cours...

le 20/06/2023, par Andy Patrizio, IDG NS (adapté par Jean Elyan), 565 mots

Dernier dossier

Les white-box sont-elles l'avenir de la commutation réseau ?

Et si vous pouviez gérer vos commutateurs de centres de données et vos routeurs de la même façon que vos serveurs et ainsi réduire les coûts des dépenses en capital ? C'est la promesse des white-box qui amènent des systèmes d'exploitation réseau open source fonctionnant sur du matériel courant.Pour en avoir le coeur net, nous avons testé Cumulus...

Dernier entretien

Céline Polo

DRH du groupe iliad

"Nous recrutons dans des métiers en tension, en particulier sur l'infrastructure réseau, pour lesquels il y a...