ITPT’ 27 : les nouvelles tendances de l’infrastructure
Les nouvelles tendances de l’infrastructure Cette nouvelle édition de l’IT Press Tour a mêlé les entreprises ayant déjà participé à l’événement et d’autres plus nouvelles ou sur des secteurs différents pour, dans l’ensemble, tenter de dessiner le futur de
Lucidlink Système de fichiers distribué
Fondée par des anciens de chez Datacore ou d’autres ent reprises de stockage, Lucidlink est une très jeune entreprise et son produit est en disponibilité générale depuis moins d’un trimestre. Son but est de proposer un système de fichiers distribué qui migre les fichiers vers le Cloud en streaming en complément d’un stockage objet comme S3. Le stockage objet présente de nombreux avantages comme l’élasticité, le coût et il excelle comme stockage secondaire pour le Backup, l’archivage ou les applications nativement web. Ses limites empêchent cependant de l’utiliser comme un stockage primaire du fait du manque d’interface avec des systèmes de fichiers, de piètres performances et un manque de sécurité. Lucidlink vise à éliminer ces problèmes en proposant un système de fichiers performant avec accès aux fichiers en streaming vers des stockages objets pour donner la capacité d’utiliser les données de production de manière active. Proposée en SaaS, Lucidlink évite à l’utilisateur de déployer une infrastructure et d’utiliser des baies de stockage que l’on trouve toujours trop chères. Les flux sont chiffrés de bout en bout. Le logiciel est compatible avec l’ensemble des OS dans le Cloud ou dans la périphérie de réseau et s’intègre avec les principales solutions de stockage objet sur le marché qu’elles soient fournies dans le Cloud ou sur site.
UNE ARCHITECTURE NOUVELLE
Pour garantir la performance, Lucidlink a conçu une nouvelle architecture et assure une faible latence en utilisant le pré fetching des données, la compression et des fonctions de cache. De plus la solution synchronise les métadonnées avec les flux parallèles de données. La sécurité est assurée par un chiffrement et une authentification du côté client. La conception des logs est spécifique pour s’assurer de la consistance. La solution est scale out et évolue linéairement dans ses performances et ses capacités. La solution est facturée 5 cents par mois le Gigaoctet, soit bien moins que les Clouds publics. Il faut cependant y ajouter le stockage sur S3. De quoi soulever l’intérêt ! L’entreprise vient d’ailleurs de recevoir de la part d’investisseurs un petit chèque de 5,5 millions de dollars après 18 M$ levés en tour d’amorçage.
StorOne Nouvelle approche du stockage
Nous avions déjà rencontré l’année dernière en Israël StorOne, une entreprise qui avait travaillé pendant près de six ans en mode secret avant de lancer son logiciel TRU Storage ( Total Resources Utilization). Retour avec eux pour voir les progrès de l’entreprise. Gael Naor, le CEO, fondateur de StorOne et créateur de Storwize – revendu à IBM –, a des convictions très fortes sur le stockage. Pour lui le point faible des solutions actuelles
du marché réside dans le logiciel. Les performances ou la capacité ne sont selon lui plus un souci : « Il est incompréhensible qu’une baie de stockage Flash facture une opération par seconde 50 cents ou 1 $, alors qu’aujourd’hui un simple SSD peut délivrer 250 000 IOPS pour moins de 500 $. »
UNE OPTIMISATION LOGICIELLE
Le système conçu par StorOne permet de tirer le meilleur parti des ressources tel que CPU, mémoire et stockage disponible pour proposer une solution avec des performances et des fonctionnalités les plus importantes possibles. La solution peut fonctionner sur un serveur x86 ou en simple appliance logicielle. StorOne revendique des performances cinq fois supérieures à toutes les solutions du marché pour un coût proche de 1 cent/ Go et avec une utilisation moindre des disques dans la baie. La solution répond aux besoins de stockage primaire et secondaire. La solution est très versatile et supporte les technologies blocs, fichiers et objets ( S3) sur des disques distribués via un système d’erasure coding à parité variable. En termes de fonctionnalités, elles sont toutes présentes sans ajout au prix qui est calculé selon la capacité de stockage. StorOne est donc une des entreprises à suivre dans le secteur et qui propose une réelle nouvelle approche du stockage et qui commence à être reconnu par les spécialistes de la question. La solution s’appuie sur près de 50 brevets dont certains sont déjà acceptés. Seul élément au passif de la solution, Gael Naor s’exprime peu sur les solutions d’optimisation logicielle effectuée, il est donc difficile de voir les points critiques qui permettent d’avoir ces résultats en termes de performance ou de latence.
Portworx Spécialiste du stockage pour containers
Nous avions déjà rencontré Portworx lors d’un IT Press Tour précédent. Il était intéressant de voir les progrès de l’entreprise et son évolution. Dans son domaine, Portworx, qui compte désormais 50 salariés, affiche ses ambitions en voulant devenir la couche de contrôle des données en lien avec Kubernetes, dont le rôle est dévolu à l’orchestration et la gestion des containers. Plus que cela, l’éditeur veut tenir ce rôle désormais auprès de tous les moteurs d’orchestration des containers , comme Red Shift ou Mesosphere. Portworx résout le problème de la persistance des containers « stateful » en production en leur apportant des fonctions de classe entreprise ( haute disponibilité, backup, performance des I/ O, migration de données dans différents Clouds) par l’intégration avec les principaux orchestrateurs du marché et Docker dans des déploiements automatisés répondant au concept DevOps. Ce déploiement peut se réaliser sur site ou dans le Cloud. Au bilan, l’éditeur revendique des coûts moindres sur le calcul ou le stockage pouvant aller jusqu’à 40 %. La solution est totalement logicielle et utilise les fonctions des orchestrateurs pour optimiser le placement des données. Les données sont chiffrées de bout en bout, en mouvement ou au repos, en reprenant les clés ou les certificats de l’entreprise cliente. La solution est présente chez Dreamworks, le studio d’animation, la Lufthansa et Carrefour en France. La solution se développe sur des cas d’usages clairs comme l’Internet des objets dans les environnements industriels, les Clouds privés. Les déploiements se réalisent principalement sur des machines virtuelles ou des environnements bare metal.
Komprise Un développement explosif
Autre visage connu sur le tour, Komprise a progressé depuis notre dernière visite. La solution comprend maintenant la migration NAS par NFS et SMB. L’utilisateur peut analyser les données dans le NAS, identifier le retour sur investissement de la gestion des données dans le Cloud et archiver de manière transparente les données à travers des fichiers ou des environnements objets dans le Cloud. L’approche de Komprise évite
les lacunes habituelles des outils de synchronisation ou de migration des données sur les NAS du marché. La fonction de migration NAS est comprise dans la plate- forme Komprise Intelligent Data Management sans coût additionnel.
UNE CROISSANCE CONTINUE
L’entreprise connaît désormais un développement explosif avec une croissance de 700 % sur son premier trimestre fiscal en comparaison du même trimestre de l’année précédente. Les nouveaux clients sont issus de différents secteurs d’activités. Recherche, Universités, agences étatiques, génomique et assurances enrichissent le portefeuille clients de Komprise avec des environnements de plusieurs Petaoctets. L’autre axe de développement passe par les partenariats avec une relation, où IBM est revendeur stratégique de Komprise, et par une présence sur les boutiques applicatives d’AWS, de Google et plus récemment Azure. Ces partenariats s’ajoutent à ceux avec Pure Storage, Caringo, Wasabi ( Cloud Storage) et Qumulo. L’entreprise se lance à l’international avec une équipe en charge de l’Europe à Londres et un nouveau bâtiment à Bangalore en Inde. L’équipe européenne est dirigée par Andy Hill ( ex- Nexsan Pivot3, Sungard et Veritas). Komprise étend aussi son réseau de revendeurs et partenaires.
Snowflake Future star de l’analytique
Lors de notre visite l’éditeur a procédé à deux annonces importantes : le support de sa solution dans Azure et une fonction de partage des données. La fonction de partage des données est accessible à tous les clients de la solution sans coût additionnel. Le partage se réalise à partir de la plate- forme et ne nécessite pas de migrer des données. Cela évite de plus la duplication de données. Le principal intérêt est ainsi de pouvoir partager des données avec son écosystème de fournisseurs, de clients ou de partenaires à partir d’une plateforme centralisée et sécurisée. Une très belle rencontre avec une entreprise qui sera certainement une des stars de demain sur le terrain de l’analytique.
Datrium Redéfinir l’hyper- convergence
Datrium veut offrir le premier système hyper- scale hyperconvergent. Tout en proposant l’ensemble des services de données attendus dans les baies de classe entreprise, Datrium revendique de pouvoir assurer des performances à l’égal des grands du Web et écrasant la concurrence à des ratios de 1 pour 10, de 1 à 5 sur les baies all flash avec une latence réduite des deux tiers avec des fonctions de backup directement embarquées dans le logiciel pour des coûts dix fois inférieurs à ceux d’AWS. Rien de magique dans tout cela ! Datrium refonde totalement ce qui fait l’hyper- convergence en s’appuyant sur quatre piliers : un système de fichiers de logs structurés, une couche d’architecture différente, un catalogue de backup et une déduplication globale. Le système de fichiers transforme les données en random par des écritures de logs larges séquentiels dans des containers de 8 Mo et en les plaçant suivant des algorithmes d’erasure coding sur les supports les plus adaptés. Cette fonction est d’ailleurs protégée par un brevet. Cette architecture permet d’obtenir des lectures très rapides et une latence très faible sur des disques locaux SSD ou NVMe tout en conservant une vitesse d’écriture très rapide. Décorrélant le calcul du stockage, l’évolution de l’ensemble a la possibilité d’augmenter seulement la puissance de calcul ou le stockage suivant les besoins constatés.
De plus, de par sa structure, le système de fichiers de Datrium est parfaitement adapté aux environnements clouds en particulier AWS S3. La fonction globale de déduplication est vérifiée par une technologie de type Blockchain et les backups présents dans un catalogue sont vérifiés plusieurs fois par jour. Ces arguments permettent à Datrium de viser à jouer dans la cour des costauds de l’hyper- convergence et de sécuriser les données sur différents Clouds tout en les gérant d’une console unique. Et pour commencer, Datrium est devenu le fournisseur des « 49ers » de San Francisco, – prononcez simplement « The Naïneurs » –, l’équipe de football américain dont le stade, le Levi’s Stadium, est à Santa Clara. Quand on vous dit costauds !
Datera Solution logicielle de stockage optimisé
L’entreprise a profité de la visite de L’Informaticien pour nous présenter la version 3.2 de sa solution. Elle comprend un support étendu pour les containers de type Docker, des opérations globales automatisées dans des stretchs clusters actifs/ actifs, des performances assurées par des environnements en mémoires persistantes ou NVMe, avec des capacités pouvant aller jusqu’à 6 Po. La solution est totalement décorrélée des matériels sous- jacents et propose de plus des services de données avancés pour les environnements objets de type S3. L’automatisation se réalise par des moteurs de règles et par un placement intelligent des données. Datera est scale- out et profite de chaque ajout de puissance linéairement.
Hycu Le pari de Nutanix
Hycu a dès le départ des environnements hyper convergents fait le pari sur ces nouvelles architectures. Celles- ci brisent les silos dans les centres de données, sont plus simples à administrer, sont réellement concentrées vers les applications et s’intègrent dans de nombreux environnements existants. De plus, les solutions intègrent déjà de nombreuses fonctions natives de stockage de bon niveau. C’est là que se différencie l’approche d’Hycu en se proposant comme le meilleur complément de Nutanix et non comme une solution qui doublonne des fonctions existantes.
UNE SOLUTION SANS AGENT
La solution sans agent d’Hycu a été spécifiquement conçue pour les environnements de Nutanix avec une fonction de découverte automatique des applications présentes et prend en charge l’hyperviseur maison, AHV. Une des fonctionnalités importantes du logiciel d’Hycu est la prise en charge des machines virtuelles habituellement gelées par les backups sur l’environnement de Nutanix ( VM Stun). Outre ces points, la solution fournit un backup des réplicas et des restaurations à la source. Elle peut se déployer avec Calm, un logiciel de Nutanix et autorise une montée en charge progressive sur le système de fichiers AFS. La solution se déploie soit sur les appliances partenaires de Nutanix ( Lenovo, Dell, ou cluster de noeuds denses) et s’intègre avec de nombreux offreurs de NAS du marché comme Quantum, Exagrid et des acteurs du Cloud ( AWS, Azure, Cloudian et Saclity). La solution couvre Exchange, Active Directory, SQL Server et Oracle Server. Elle supporte de plus SAP Hana ( Q3 2018) et les baies IBM Power CS. Via LTFS, ainsi que les environnements de bandes.
Axway Plus d’outils pour la relation client
Comment qualifier Axway ? « A grown up » ? En tout cas une organisation qui se réinvente et qui aujourd’hui se tourne vers les entreprises qui se concentrent sur leur relation avec le client. Présente partout, avec près de 300 M$ de chiffre d’affaires et une croissance organique qui dépasse les 14 % et plus de 11 000 clients revendiqués, Axway a toutes les armes pour réussir sa mutation. Ce changement suit celui des interlocuteurs d’Axway, les DSI qui deviennent maintenant de réels managers améliorant les coûts et les processus, exploitant les données de l’entreprise et ouvrant l’entreprise vers le digital dans le but d’accroître les revenus. Axway devient la plate- forme d’intégration et d’engagement pour les écosystèmes digitaux. Les nouvelles opportunités apportées par cette transformation globale ont un impact évident sur les services informatiques qui se doivent d’être plus réactifs aux demandes des métiers.
AMPLIFY, LA COUCHE POUR ACCÉLÉRER LA TRANSFORMATION
Pour parvenir à cette fin, Axway a regroupé l’ensemble de son por tefeuille sur une plateforme, Amplify, qui permet de concevoir, construire et mettre en production l’ensemble des interactions de l’entreprise. Le noeud de cette solution est la partie de gestion des API qui relie l’ensemble des parties de l’entreprise en interne, mais aussi avec les autres parties prenantes de l’écosystème. Pour étendre les possibilités, Axway a profité de notre visite pour présenter une version d’API Builder en stand alone qui permet à l’entreprise de concevoir ses propres API qui complètent les connecteurs déjà présents dans la bibliothèque de l’éditeur. Lors de notre visite, vingt nouveaux connecteurs venaient d’y être ajoutés. API Builder fonctionne comme un outil Low Code qui permet d’orchestrer visuellement les interactions entre les API. De nouvelles versions d’API Gateway, d’API Manager et d’API Portal ( 7.6.2) devraient être rapidement disponibles ( été 2018). Ces ver sions ajoutent la containerisation et le support de Kubernetes pour faciliter les déploiements dans différents environnements hybrides. L’ensemble des outils embarque des fonctions analytiques pour le suivi des API. Dernière nouveauté, le lancement d’un portail à destination des développeurs pour renforcer les communautés autour des solutions de l’éditeur.
VERS LES MICROSERVICES ET LA COLLABORATION
La vision est clairement d’être la plate- forme de référence autour des API et des micro services en simplifiant et en accélérant la manière dont les entreprises construisent, sécurisent, publient, monitorent et font évoluer ces API et microservices. En dernier point de notre rencontre, Axway a fait un point sur la place de Syncplicity et la manière dont Axway conçoit le nouvel espace de travail en entreprise avec un outil capable de partager et de synchroniser l’ensemble des données et des documents pour les rendre accessibles au plus grand nombre d’utilisateurs suivant les règles et le respect de la conformité. ❍