Le data management à l’honneur
NE DITES PLUS STOCKAGE OU BACKUP, NI ARCHIVAGE. LES ÉDITEURS DE SOLUTIONS REVIENNENT TOUS À LA GESTION DES DONNÉES OU DATA MANAGEMENT : UN REVIVAL DU CONCEPT D’INFORMATION LIFECYCLE MANAGEMENT ( ILM) ET DE HIERARCHICAL STORAGE MANAGEMENT ( HSM). DE NOUVEA
Le marketing des éditeurs de solutions de stockage a pendant un temps mis sous le boisseau des concepts comme l’ILM ou le HSM. Avec la croissance quasi exponentielle des données dans les entreprises, ils y reviennent en proposant des solutions de gestion des données avancées. Pourquoi ? « La croissance des données non structurées, soit au moins deux tiers des données créées, pose un problème : à un moment, tous les outils, comme le tiering ou d’autres, subissent un impact par le déplacement des données sur les temps de réponses et la performance » , répond Gabriel Chaher, vice- président Global Market Development de Quantum. Il ajoute : « Le seul capable de dire quoi, quand et qui doit conserver la donnée est l’utilisateur final, le propriétaire de la donnée. Les solutions doivent aussi permettre d’apporter de l’intelligence à la donnée. » Quantum a ainsi annoncé un partenariat avec Dataframeworks et sa suite Clarity Now ! sur sa solution Excellis. La solution réalise une analyse de l’ensemble des données non structurées et les remonte pour les grouper intelligemment. L’utilisateur final ne voit qu’un tag virtuel placé dans des containers, des buckets virtuels. Ainsi, la solution sait où se trouve le fichier déplacé dans la base de Dataframeworks et réindexe à la volée. La solution n’est pas dans le chemin des données, ce qui permet des recherches rapides. L’interface graphique automatise les concepts de HSM et d’ILM en les appliquant aux données non structurées.
Apporter de la visibilité sur les ressources de stockage
Un autre problème est la sous- utilisation chronique des équipements de stockage. Une étude Quocirca réalisée pour le compte de Nutanix indique que le taux d’utilisation de ce type d’équipement tourne autour de 34 % ! En étant généreux, cela veut dire que près de 60 % des ressources achetées dans les entreprises sont inutilisées. S’il convient de conserver des marges de manoeuvre pour éviter les incidents, il serait intéressant de voir quel est le bon niveau à conserver pour éviter le gâchis. Les éditeurs de solution de gestion des données sont bien conscients de ce problème et visent à apporter des solutions redonnant une visibilité sur les environnements de stockage pour optimiser leur utilisation. Là encore le vieux concept, le SRM cette fois, revient à l’honneur. Komprise, une jeune entreprise américaine, vise à résoudre les principaux problèmes des entreprises sur la mobilité des données et la visibilité sur le stockage avec un logiciel combinant supervision et analytique pour fournir une solution d’optimisation et de
réduction de coûts des ressources de stockage. Un agent observateur placé sur une grille, reliée à la console centrale, suit les données lorsqu’elles transitent par la plate- forme de Komprise sans être sur le chemin primaire des données ce qui aurait pu avoir des impacts sur la performance ou la sécurité. Le logiciel s’intègre avec le stockage existant et crée un lien entre le stockage primaire et secondaire. Sans base centralisée, la solution évolue facilement en scale out. La solution réalise ensuite la composition d’agrégats à la volée pour une première analyse puis vient un deuxième stade en analyse avancée pour préconiser et automatiser des déplacements de données vers le support le plus approprié et la répartition de charge. La solution travaille par cycle récurrent avec des points de contrôle pour rectifier les erreurs.
Virtualiser pour mieux gérer
Dans une approche similaire, Aptare est un éditeur qui élargit son action à l’ensemble de l’infrastructure informatique à partir d’une console centralisée et collecte les données sans agent. Là encore, la solution réalise des analyses sur les données collectées. La principale différence est de proposer aussi les relations d’interactions entre les différents composants de l’infrastructure pour aligner les besoins métier et l’informatique. Les fonctions analytiques sont très puissantes et permettent des recherches très précises en « drill down » sur chaque élément de l’infrastructure. Strongbox a enrichi ses solutions d’une suite de gestion des données qui se présente comme une couche de virtualisation du stockage existant et se place comme le centre de contrôle au- dessus des solutions en place. L’éditeur ne remplace donc rien, mais résout les questions de visibilité sur le stockage en récupérant les métadonnées, en les classifiant puis en les analysant pour proposer la meilleure solution de stockage. La solution embarque un outil de recherche pour retrouver facilement données ou fichiers. StrongBox utilise aussi des éléments de machine learning pour automatiser les opérations de stockage. Les règles sont appliquées sur un pool intelligent de ressources de stockage qui peut regrouper des éléments différents dans un seul ensemble logique. L’utilisateur n’écrit donc pas sur un appareil, mais dans un espace logique de règles. L’ajout de nouveaux matériels se réalise simplement par l’ajout d’un nouveau tag de métadonnées. Si ce matériel remplace un autre plus ancien, la migration des données est automatique vers le nouveau matériel de manière transparente pour l’utilisateur, qui ne voit que la localisation habituelle. Le nouveau matériel hérite de plus de l’ensemble des règles appliquées au pool intelligent. Le logiciel comprend aussi des outils analytiques qui permettent un suivi en temps réel des opérations de stockage et de lancer des actions dynamiques de mouvement et de protection des données, selon les règles mises en oeuvre à travers les principaux environnements de stockage existants, que ce soit sur site ou dans le Cloud. Ainsi, plus que de simplement stocker les données, les éditeurs et entreprises recherchent des solutions leur apportant une visibilité complète sur les données mais aussi sur les ressources de stockage pour optimiser leur mouvement et réduire les coûts en plaçant les données sur le support le plus adapté. Cela va jusqu’à la délétion des données. Contrairement à une croyance parfois bien installée, on peut aussi supprimer des données, mais pas n’importe lesquelles, pas n’importe quand et surtout pas par n’importe qui ! Un retour vers le passé bienvenu. ❍
« Les solutions doivent aussi permettre d’apporter de l’intelligence à la donnée » Gabriel Chaher, vice- président Global Market Development de Quantum