L’échelle change tout !
Il en est, comme dans la querelle des Scolastiques, de savoir qui du volume des données ou de la puissance de calcul a donné naissance à l’autre. Est- ce que le volume des données à traiter a fait que les serveurs sont devenus plus puissants, les baies de stockage plus efficaces et plus capacitives, les réseaux plus rapides, les bandes passantes plus larges ? Ou, à l’inverse, du fait de ces nouveaux progrès les utilisateurs ont- ils pris leurs aises et utilisent de plus en plus de données ? Ce dernier point est d’ailleurs à moduler. Lors d’une récente conférence de Snowflake, qui s’est tenue à Londres, il a été dit que seulement 1 à 2 % des données sont utilisées pour des analyses, donc sauvegardées et stockées. Le reste n’est utilisé que très temporairement et près de 80 % de ces données ne sont utilisées qu’une seule fois puis tombent dans les oubliettes du “dark data ”. Pour comprendre l’ampleur du phénomène, les capacités de stockage des données vont être multipliées par deux entre 2018 et 2023 pour un volume de 11,7 Zo. En 2025, la production de données devrait être de 175 Zo. À ce stade, les données seront pour la plupart analysées en temps réel sans être sauvegardées. Pour être complet, ajoutons que la capacité de stockage ajoutée en 2018 a été de 700 Exaoctets pour un marché estimé à 88 milliards de dollars.
Pour les performances, il en est de même. Un éditeur de solutions de gestion des données annonçait un matériel capable de traiter 24 millions d’opérations à la seconde. Cette baie de stockage n’avait cependant rien à voir avec les limites du HPC ( High Performance Computing) qui a entamé la course vers l’exaflop, soit les 1 000 Petaflops que nous connaissons actuellement. L’utilisation de processeurs graphiques et leurs nombreux coeurs a largement amélioré le traitement en volume des données. Nvidia annonce sur son site pouvoir entraîner un modèle en 80 secondes alors qu’il fallait huit heures il y a encore peu selon un benchmark Mlperf.
Une automatisation nécessaire
Les niveaux atteints ont pour conséquence que les humains ne peuvent suivre ce que les machines réalisent sans automatisation. De plus, le volume et la vitesse font que l’esprit humain ne peut saisir l’échelle des opérations. Sans cette automatisation les humains ne peuvent comprendre ni avoir la visibilité sur l’ensemble des opérations effectuées.
Cette perte de visibilité et de contrôle est accentuée par le caractère éphémère de certaines opérations. À l’image du papillon, les containers ont pour la plupart une durée de vie très courte. Certains ne servent qu’à réaliser un appel API et vivent moins de dix secondes. Ils sont pourtant nécessaires pour faire fonctionner correctement des applications faisant appel à des composants tiers. Mais comment suivre et contrôler des éléments qui ont moins de temps de vie que les possibilités de contrôle des logiciels. Le plus souvent, ce contrôle et cette visibilité ne s’acquièrent qu’a posteriori, en suivant traces, logs… Par automatisation, nous incluons évidemment la robotisation de certaines tâches. Prenons par exemple un environnement industriel assez classique comme celui d ‘ une
Les niveaux atteints ont pour conséquence que les humains ne peuvent suivre ce que les machines réalisent sans automatisation. De plus, le volume et la vitesse font que l’esprit humain ne peut saisir l’échelle des opérations
cimenterie, ainsi que nous l’a expliqué Éric Xing, le fondateur et CEO de Petuum. Ce type d’entreprise utilise sur ses équipements près de 60 000 capteurs pour mesurer un ensemble d’éléments comme la température, la pression… L’éditeur a mis en place une solution d’intelligence artificielle qui ne remplace pas l’humain mais lui permet de comprendre et d’agir en connaissance de cause sur un environnement qui dépasse de loin ce qu’il peut contrôler par lui- même. Il fournit des prévisions de production pour le quart d’heure à venir. Après validation par l’opérateur du plan proposé par l’intelligence artificielle, ce qui permet à l’humain de garder la main sur les opérations mais aussi d’éviter que la “machine ” ne se trompe, la préconisation est intégrée au système de contrôle de l’usine. La solution mise en oeuvre chez Cemex, un cimentier d’envergure mondiale dont le siège est à Monterrey au Mexique, a été récompensée par un prix lors d’un salon dédié à cette industrie. Les résultats obtenus sont d’ailleurs probants avec une baisse de 7 % de l’énergie utilisée dans l’usine réduisant ainsi drastiquement les coûts par une meilleure utilisation des énergies alternatives aux énergies fossiles, la réduction de la variabilité du process de production. La solution a permis de plus d’éliminer les temps d’arrêts et a donc renforcé le temps d’utilisation des équipements. La solution est en cours de déploiement sur d’autres sites du cimentier avec pour but d’obtenir les mêmes résultats sur les autres sites du cimentier.
L’automatisation inéluctable
Le temps n’est donc plus venu de se poser le type de questions comme de savoir si l’utilisation de l’automatisation est mieux ou pire que ce que nous avons actuellement comme outils puisque de toutes façons il sera obligatoire, du fait du changement d’échelle des opérations dans l’informatique, d’avoir recours à celle- ci, que ce soit par de simples règles ou par le modèle plus sophistiqué de l’intelligence artificielle.
Il en sera ainsi jusqu’à la prochaine grande révolution avec le quantique. Le parallélisme massif des ordinateurs quantiques allié aux propriétés de la technologie vont faire exploser une nouvelle fois les barrières que nous connaissons autour du traitement des données et apporter encore plus de volume, plus de traitement et sans automatisation et sans outils pour contrôler et gérer ce trop- plein. Alors l’humain aura perdu la partie et sera dépendant des machines. C’est en tout cas les promesses de cette technologie émergente qu’est le quantique. Il n’est pas encore sûr que celle- ci soit aussi fiable que l’on nous le promet et les promesses n’engagent que ceux qui les entendent ! ✖