Onepanel : infra IA évolutive à base de containers
Onepanel vient juste de réellement démarrer son activité et l’entreprise a déjà levé 1,4 million de dollars en tours d’amorçage dont le dernier a eu lieu en novembre. Pour les entreprises qui se lancent dans des projets autour de l’intelligence artificielle, il est toujours difficile de déployer une infrastructure évolutive en production. Onepanel vise à résoudre ce souci en s’appuyant sur une architecture à partir d’images de containers sous Kubernetes. Les templates de containers couvrent différents aspects comme une grille de données, des outils de données synthétiques, des modélisations optimisées pour les processeurs graphiques, des outils bio- informatiques et des environnements de simulations. La plate- forme autorise l’intervention humaine dans le workflow d’apprentissage de la machine. La solution peut se déployer dans la plupart des environnements et évolue par simple ajouts de noeuds. Le modèle déployé va chercher automatiquement les bonnes ressources pour fonctionner comme dans un environnement serverless. Les applications créées peuvent facilement être réutilisées, quelle que soit la version de cette application. Les versions sont conservées dans un référentiel. Les modèles peuvent d’ailleurs être entraînés en parallèle pour accélérer la phase d’apprentissage. Par ligne de commandes, le kit de développement ou des API, il est possible d’intégrer Onepanel avec les workflows existants dans l’entreprise. L’éditeur a annoncé l’intégration prochaine avec le système d’exploitation de robots de Gazebo apportant la possibilité d’utiliser la plate- forme pour le développement de bots. La solution se décline sous trois formes, l’une gratuite pour le test ou les débutants en Intelligence artificielle. Des versions Enterprise et Data centers sont facturées selon le stockage et la puissance de calcul utilisés ( CPU et/ ou GPU) à la seconde. La version Enterprise propose une automatisation du workflow d’intelligence artificielle du chargement des données à l’annotation par un humain à la construction du modèle et l’ajustement des différents paramètres puis l’entraînement sur un banc de processeurs graphiques en parallèle et l’analyse et les métriques sur le modèle. La phase suivante gère et déploie le modèle par des API serverless et permet de refermer la boucle avec le rechargement des données à partir du modèle conçu.