Les données au centre de toutes les innovations
L’informaticien a eu la chance, courant octobre, de participer à une nouvelle édition de L’IT Press Tour consacrée aux applications. L’ensemble des entreprises sont concentrées sur les données et la valeur que l’on peut en tirer. Tour d’horizon avec une dizaine d’acteurs autour de ce thème. Sysdig mise sur la sécurité
Sysdig, éditeur de solutions de supervision et de sécurité des environnements en containers, renforce les fonctions de sécurité associées à sa plate- forme en s’appuyant sur Falco, un projet open source.
Avoir une vue exhaustive de ce qui se passe dans les environnements de containers est souvent difficile car les outils actuels connaissent des limitations qui empêchent de l’obtenir comme un nombre de métriques limitées. Les évolutions de la plate- forme de Sysdig visent à combler les lacunes de ces outils en introduisant des éléments d’analytique sur son logiciel qui s’appuie sur les appels système des containers ou sur la plate- forme. Ces éléments permettent de mettre en place un cycle : build / run / respond améliorant au passage la sécurité.
Une plate- forme enrichie
Outre ses deux logiciels Sysdig Monitor et Sysdig Secure, l’éditeur s’appuie sur de nouveaux outils comme Falco, Anchor, Prometheus et Sysdig Inspect. Les données d’appels système dans Sysdig sont collectées puis analysées pour appor ter une vision complète de l’environnement des containers et ainsi autoriser des alertes préventives sur la sécurité des containers ou des applications utilisées lorsque les règles mises en place sont violées. La plate- forme autorise aussi des analyses forensiques d’un incident par la conservation des logs des appels système.
Avec plus de trois cents clients, aujourd’hui Sysdig commence à devenir un éditeur de référence pour la supervision des environnements en containers avec cependant de nombreux compétiteurs. La nouvelle orientation vers la sécurité et l’analytique différencie l’offre de Sysdig par rapport aux autres qui se cantonnent au pur monitoring. Une levée de fonds récente de plus de 60 millions de dollars permet à Sysdig de voir venir et de se développer plus rapidement sur ces axes de différenciation. À suivre !
Aera Technology étend ses champs d’action
Nous avions déjà écrit sur Aera Technology pour présenter leur solution cognitive de gestion
de l’entreprise autorisant des prises de décision quasi en temps réel en s’appuyant sur l’ensemble des données de l’entreprise. Jusqu’à présent Aera Technology se concentrait sur la chaîne d’approvisionnement de ses clients. L’entreprise ajoute la finance et les ventes dans ses centres d’intérêts. Avant d’entreprendre son travail, le logiciel d’aera Technology veut comprendre vos données provenant de ses différents systèmes. Le logiciel utilise à cette fin des « crawlers » brevetés comme on peut en trouver dans les solutions de gestion des événements. À la suite de cette observation, la solution normalise les données dans Aera Technology. La plupart des grands systèmes utilisés dans les entreprises, comme SAP, Oracle Salesforce. com ont été déjà cartographiés par Aera Technolgy et d’autres sources sont à venir en fonction des demandes des clients. Les crawlers ne se limitent pas aux données des applications présentes dans l’entreprise. Ils sont capables d’enrichir ces données avec des flux extérieurs pertinents comme la météo, le cours d’une devise… Toutes ces données sont collectées, indexées, harmonisées, chiffrées et envoyées dans le Cloud.
Les données sont ensuite analysées avec une technologie de processing en mémoire. Lors de ce traitement, l’éditeur y ajoute sa propre sauce, des domaines d’expertise incluant des milliers de mesures prédéfinies s’appliquant à toutes les lignes des métiers de l’entreprise. La solution anticipe le fait que le résultat soit bon ou mauvais pour l’entreprise. Sur ces premières étapes, la solution applique aussi des algorithmes de Machine Learning, qui, après apprentissage supervisé, permet à la solution de vous proposer des recommandations ou des prédictions de confiance.
À la suite de ces étapes, la solution est capable soit de proposer des recommandations soit d’agir directement si vous avez fait le choix d’automatiser certaines réponses à partir d’une bibliothèque de processus prédéfinis fournis dans la solution. Dans ce cas, le logiciel passe à travers des arbres de décisions très complexes pour initier ou automatiser des processus comme le rééquilibrage des stocks entre différents entrepôts et des usines. Il peut même s’il le faut créer des tâches dans un ERP sous- jacent. Ces fonctions sont appelées des compétences cognitives ( Cognitiv Skills) dans le glossaire d’aera Technoogy, et elles sont cognitives dans le sens qu’elles embarquent de l’intelligence artificielle.
En novembre dernier, l’éditeur en a ajouté trois nouvelles sur la demande et les ventes, sur la performance de la production, permettant d’avoir une vue globale sur l’élaboration d’un produit de l’approvisionnement en ressources brutes à la fourniture du produit fini, sur la chaîne d’approvisionnement ( demandes, inventaires, approvisionnement). Ce dernier « skill » fournit une librairie de métriques clés, de tendances et d’analyse pour optimiser la supply chain.
Un kit de développement autorise la création et le déploiement de « skills » personnalisés de manière visuelle sans écrire une ligne de code à partir d’une bibliothèque de modules prédéfinis qui sont complétés par des microservices d’intelligence artificielle ou de Machine Learning pouvant être embarqués dans des nouveaux « skills » . Ce SDK permet de plus d’ajouter de nouveaux flux de données si nécessaire, d’ajouter des rapports, des visualisations et des logiques métier complémentaires de créer les packages de déploiement en assurant sa distribution vers les bons utilisateurs de manière sécurisée. Maintenant Aera applique ces mêmes processus aux ventes et à la finance. D’autres Skills et secteurs devraient être annoncés mais l’éditeur veut avancer à son rythme.
Kinetica, une base de données pour la 4e révolution industrielle
La start- up américaine propose une base de données traitée par des puces graphiques et des traitements parallèles pour non plus travailler sur du Big Data mais de l’extreme Data. Nima Neghaban, le CTO de Kinetica, était un pionnier dans le développement d’une base de données fonctionnant sur des puces graphiques. D’ailleurs la version 1.0 du produit a été conçue pour aider l’armée américaine à suivre et neutraliser les menaces terroristes. Quelques mois plus tard, ce qui allait devenir Kinetica en 2016, après une levée de fonds, connaissait son premier succès commercial en s’installant chez USPS, le service postal américain. Dès 2017, Kinetica levait cinquante autres millions de dollars et accélérait son développement en Europe et en Asie. Paul Appleby devenait le CEO de l’entreprise. GSK, Lippo Group ou Scotiabank sont maintenant des clients. L’entreprise a désormais plus de cent salariés. Outre Nvidia, Kinetica est partenaire de Dell et IBM.
Une technologie performante
Pour résoudre les problèmes de données de ses clients, Kinetica se veut rapide, performant en offrant des services de localisation et de visualisation incomparables pour des analyses instantanées ou sur des flux de données. Le moteur fonctionnant sur des GPU Nvidia est optimisé pour effectuer ces différentes tâches pour des applications reposant sur Tensorflow, Cuda et Caffe. Les données présentes dans la base sont opérées dans la mémoire des puces graphiques selon les jobs proposés par un moteur d’orchestration gérant les tâches en parallèle pour les présenter vers des outils OLAP, de rendu visuel, d’analyse géospatiale ou de Machine Learning. Les résultats sont transmis vers des outils de restitution via des API.
Odaseva, le gestionnaire des données en ligne
Odaseva s’est déjà fait un nom comme partenaire de Salesforce. Cette entreprise franco- américaine gère les données mises en ligne et assure leur protection. Pour Odaseva, la clé de la gestion des données éparpillées dans plusieurs Clouds est la maîtrise des API. Les entreprises actuelles ont leurs documents dans Office 365 mais leurs données commerciales dans Salesforce. Elles communiquent par le mail de Google et stockent toutes ces données sur AWS par L’API S3. Cette gestion devient évidemment complexe. Il faut noter que dans tous les cas l’entreprise est responsable de la gestion mais aussi de la sauvegarde et de la sécurité des données mises en ligne. C’est sur ce point qu’intervient Odaseva en proposant d’installer en quelques clics les processus liées aux données et non les développer comme auparavant dans sa plate- forme en ligne. L’entreprise peut s’enorgueillir de compter de grands clients comme Heineken, la Poste, Veolia, Schneider Elect r ic, GE, Toyot a… Accédée par une application web, une API ou en lignes de commandes, la solution d’odaseva propose différents services d’archivage, de backup, de sécurité et de gestion des données qui se connectent aux solutions en ligne par une bibliothèque de connecteurs. L’éditeur propose un jeu de huit applications sur cette plate- forme pour une conformité au RGPD. Les données sont chiffrées avec un algorithme AES 256. Depuis peu, la plate- forme autorise de restreindre les accès IP par une liste blanche des VPN qui ont le droit de se connecter à Odaseva. D’autres innovations devraient suivre pour encore renforcer la sécurité, ajouter une touche d’intelligence artificielle.
Platform. sh lance un service en marque blanche
L’éditeur d’une solution de Paas enrichit son portefeuille de solutions et propose maintenant sa plate- forme en marque blanche pour les éditeurs de logiciels en Saas. L’offre Platform. sh est complète car elle permet à l’éditeur de choisir son infrastructure cloud sous- jacente parmi les partenaires de Platform. sh ( à ce jour AWS, Azure et Orange) et les régions géographiques de déploiement ( Europe, ÉtatsUnis ou APAC). La solution est certifiée RGPD et PCI- DSS. La plate- forme en marque blanche est construite sous la forme d’une API qui donne accès à sa technologie de clonage instantané et son workflow de déploiement continu. Avec la version marque blanche, les éditeurs disposent alors d’une offre Paas en mode service et aux couleurs de leur entreprise, comprenant l’ensemble des éléments pour la facturation et le provisioning de leur service. Magento Commerce, récemment acquis par Adobe pour la somme de 1,68 milliard de dollars, ez Systems, Sensio Labs ( éditeur de Symfony) et Orange ont d’ores et déjà développé de nouveaux modèles commerciaux grâce à Platform. sh en marque blanche.
Mabl, la QA intelligente
Mabl est une très jeune entreprise américaine qui intègre du Machine Learning dans le processus de test dans une démarche Devops. Bienvenue dans le Devtestops ! Mabl est une entreprise créée en 2017. Elle a lancé son produit au début de cette année. Son siège est à Boston. Elle a déjà levé 30 M$ en deux tours de financement. Son personnel regroupe des experts venus du MIT, de chez Microsoft…
Sa plate- forme vise à permettre aux développeurs/ testeurs de trouver et de fixer les bugs plus rapidement dans les applications web. La plateforme de l’éditeur répond aux besoins des équipes de testeurs pour suivre le rythme des équipes travaillant en environnement Devops et proposant des mises à jour parfois plusieurs fois par jour. Le test en continu doit accompagner l’intégration et le déploiement continu ( CI/ CD).
Des spécificités nouvelles
Orienté vers l’expérience utilisateur, le logiciel de Mabl ne s’appuie pas sur des scripts permettant de créer ainsi plus de tests. La solution travaille directement dans un navigateur et autorise des tests en parallèle sans véritable limitation de ressources. La plate- forme propose des « smoke tests » permettant de découvrir rapidement les bugs menant à des échecs. Les tests s’adaptent de plus aux changements d’interface utilisateur.
Par des fonctions de Machine Learning pour les tests de régression la solution permet de détecter les baisses de performance des applications et les changements inattendus sur le rendu visuel. Les erreurs Javascript et les liens cassés sont détectés automatiquement. La démonstration réalisée sur cette fonction est assez spectaculaire et c’est en quelques secondes que les résultats apparaissent.
Le Machine Learning s’appuie sur les outils de Google Cloud Platform comme Cloud ML Engine qui entraîne le modèle et génère les prédictions en ligne. Dataflow réalise les
processus sur les données en flux. Bigquery gère le datawarehouse des différentes données sur Mabl et autorise des requêtes complexes et des simulations. Datastore réalise les mêmes opérations sur un environnement NOSQL. Mabl s’intègre avec des outils collaboratifs comme Slack ou des outils de gestion des pipelines comme Jenkins, de suivi de tickets comme Jira. La solution n’a pas de limite sur le nombre de tests. Pour la sécurité, elle fonctionne derrière un firewall et toutes les données sont chiffrées avec des clés différentes pour chaque client ( outils de gestion des clés de Google). La plate- forme supporte les principales solutions de SSO dont Okta.
H2O. AI le spécialiste méconnu de L’IA
Créée en 2012, H2O. ai est un spécialiste reconnu de l’intelligence artificielle et du Machine Learning. Pourtant l’entreprise est peu connue en dehors du petit cercle des experts de L’IA. L’entreprise a vu le jour en 2012 en s’appuyant sur les technologies open source H20. H2O. ai a levé 75 M$ auprès de fonds de référence et de Nvidia. Reconnue par le Gartner par la complétude de sa vision et son service au client, l’éditeur est présent dans 222 des 500 plus grandes entreprises dont huit des dix premières banques dans le monde. De même sept des dix plus grands assureurs du Globe utilisent ses services, tout comme quatre des plus grandes entreprises dans le secteur de la santé. L’ensemble des logiciels de l’éditeur sont sous licence Apache V2. L’entreprise se rémunère sur des abonnements sur le support des logiciels.
Une suite pour les data scientists
Le logiciel conçu par des experts en science de la donnée pour des utilisateurs data scientists se décline en différentes versions. La version H2O propose des traitements en mémoire pour des algorithmes distribués de Machine Learning sur une interface utilisateur H2O Flow. Une seconde version intègre le moteur de l’éditeur sur Spark. Une dernière version fonctionne sur des puces graphiques et se nomme H2O4GPU. La solution fonctionne avec les langages R, Scala, Java et Python sur une interface interactive ( Flow). La force de l’entreprise est de regrouper les principaux talents dans le domaine de L’IA avec des experts qui se placent dans le Top 10 sur le secteur. Ceux- ci ont travaillé sur de nombreuses options d’automatisation qui permettent d’accélérer les créations de modèles ou les temps de déploiement de la plate- forme. Ces fonctions permettent aussi de limiter le nombre d’experts à recruter pour mettre en oeuvre des fonctions D’IA dans l’entreprise. Une fonction de documentation automatique résout le problème d’explicabilité des résultats et ajoute un niveau de transparence sur l’obtention des résultats. La plate- forme peut être essayée gratuitement pendant 21 jours et est accessible par tous, de l’utilisateur novice au data scientist le plus expert.
Des résultats mesurés
Chez Paypal, les analyses ont gagné 6 % de précision après l’utilisation de H2O. Chez Armadahealth, la satisfaction client a été grandement améliorée. G5, un groupe de marketing, a vu sa performance multipliée par 2,5. Enfin, chez Black& Decker, la chaîne d’approvisionnement a été réduite en améliorant les prédictions de demandes qui ont engendré l’équivalent d’un mois d’économies.
Yellowfin la BI des antipodes
Yellowfin se distingue dans le monde de la BI. Cet éditeur n’est ni américain, ni européen mais australien. Il est cependant déjà un poids lourd du secteur. Yellowfin, découverte aux antipodes, a vu le jour en 2003 à Melbourne. Ses fondateurs n’étaient pas satisfaits par ce qui existait sur le marché à l’époque. L’entreprise est privée, rentable et refuse de se commettre avec des fonds ou des ventures. Elle a une présence globale dans le monde complétée par un fort réseau de partenaires (+ de 300). L’éditeur revendique plus de 27 000 clients dans 75 pays, dont Coca- Cola, Honda ou Vodafone.
Une plate- forme automatisée
La plate- forme comprend des outils de préparation des données, des outils d’analyses et de rendu sur des dashboards. La préparation de données couvre un outil D’ETL ( Extract, Transform, Load), des outils de data science et une couche de métadonnées. Yellowfin se classe dans les outils de « discovery » pour les analyses de données.
Des retours automatisés assistent l’utilisateur. La solution se déploie sur site ou dans le Cloud. Les données sont chiffrées au repos et en mouvement. L’intégration avec les outils tiers se réalise par API vers des outils collaboratifs pour la diffusion des rapports.
Signal et Stories pour apporter contexte et précision
Les outils de business intelligence soulèvent souvent une certaine méfiance. Pour Yellowfin, cette méfiance, voire défiance, tient dans les dashboards qui ne donnent pas les élément s et une complète visibilité sur les données.
Pour y répondre, Yellowfin propose Signals, un ensemble d’outils qui automatiquement découvrent et couvrent les changements intervenus dans vos données ou dans les tendances. Il évite la réalisation d’opération manuelle et les biais humains que cela entraîne. Les Signals travaillent sur des tranches de séries temporelles et découvrent les déviations statistiques significatives sur différents changements sur les tendances, les attributs, les agrégats, la volatilité… Au total, Signals intervient sur six points importants. Sur la couche de métadonnées, Yellowfin applique certains algorithmes et y ajoute les interactions avec l’utilisateur et les inférences pour personnaliser le rendu. Les algorithmes travaillent en continu sur l’ensemble des données de l’entreprise pour apporter l’information précise qui intéresse l’utilisateur. Stories, lui, procure le contexte par des éléments qui permettent à l’utilisateur de comprendre ce que lui envoie Signals. L’outil est conçu pour être partageable autour des données en fournissant l’historique sur la donnée. La sécurité reprend celle embarquée dans la plate- forme de l’éditeur et s’intègre avec des outils de visualisation comme Tableau ou Qlik.
Logicmonitor s’étend vers GCP
La plate- forme Saas de monitoring de la performance des environnements IT hybrides ajoute GCP ( Google Cloud Platform) dans les environnements suivis. Logicmonitor est l’éditeur qui monte dans le secteur du monitoring des environnements IT. L’éditeur supervise plus de 325 000 matériels et délivre plus de 300 milliards de métriques par jour chez plus de 1 500 clients. Les 250 salariés de l’entreprise lui assurent une présence globale dans le monde.
Une solution clé en main
Dans un secteur bien encombré, l’éditeur se distingue tout d’abord par le fait d’être en Saas et de proposer le monitoring comme un service qui peut s’intégrer dans tous les environnements existants. Contrairement à cer tains concurrents, la solution fonctionne sans agents. Active Discovery, le nom du produit de l’éditeur, utilise des templates de monitoring prédéfinis pour découvrir automatiquement quelles métriques appliquer et quels incidents méritent d’envoyer une alerte. À ce jour, l’éditeur propose plus de 1 200 templates. Ils peuvent être complétés par le client du fait que ces templates sont réalisables à partir de n’importe quelle source produisant des données. Récemment, l’éditeur a ajouté différentes intégrations avec Servicenow et Terraform, un outil de provisoning dans le Cloud, pour étendre les scénarios d’utilisation par les clients.
Monitoring pour le Cloud
Avec LM Cloud, Logicmonitor supervisait déjà les environnements D’AWS et Azure. À la fin octobre, l’éditeur a ajouté GCP : L’outil, qui fonctionne en instantané, améliore la visibilité des ressources dans le Cloud et la performance des applications. Le logiciel produit aussi des corrélations sur les configurations et les changements dans les performances. Le client peut ainsi suivre ce que réalise son fournisseur de Cloud. Cela lui permet de plus de limiter les coûts si nécessaire et les résultats sont rendus dans un dashboard.
Autre annonce lors de notre visite, le monitoring des microservices avec LM Services Insight + Kubernetes. Le service utilise les fonctions de découverte automatique dans les clusters Kubernetes, sur site ou dans le Cloud. L’outil agrège les données pour réaliser les analyses et conserve les données historiques dans les clusters dynamiques. Plusieurs autres ajouts fonctionnels sont dans le tuyau et devraient être annoncés tout au long de l’année prochaine. ❍