DES MACHINES INTELLIGENTES, VRAIMENT ?
L’intelligence artificielle embarquée... Grâce à elle, les grandes marques de smartphones et de téléviseurs promettent monts et merveilles. Discours marketing ou progrès technologique ?
Processeur neuronal... Les fabricants ne jurent plus que par lui pour vanter les mérites de leurs nouveaux modèles. Et d’appliquer la mention qui fait mouche : « Intelligence artificielle embarquée. » Ce graal, aussi appelé NPU (Neural Processing Unit), niché au sein du processeur principal de l’appareil, ne réinvente cependant pas la manière de traiter une image, une vidéo ou un son. Les DSP (Digital Signal Processor ou processeur de signal numérique) spécialisés dans ces tâches s’en sortaient fort bien. Le NPU, lui, recourt à des algorithmes de machine learning tirés d’une base de données que l’on a gavée de centaines de milliers d’exemples. Cette intelligence artificielle (IA) s’adapte à plus de situations que ce qu’autorisent les traditionnels DSP, tout en travaillant plus vite et en consommant moins d’énergie. À la clé, un gain de temps et des images impeccables, mais aussi, parfois, des excès de zèle et des résultats bien artificiels.
Mainmise sur la photo
Finesse oblige, les smartphones doivent se contenter de capteurs de petites dimensions ainsi que d’une optique récupérant moins de lumière que celle d’un appareil photo traditionnel. Les clichés pris de nuit finissent bruités et
les couleurs, délavées. L’intelligence artificielle change la donne. L’appareil capte plusieurs clichés à des expositions différentes puis les assemble. En s’appuyant sur sa base de données, il recrée une image lumineuse, restitue les teintes d’origine, applique un lissage et gomme le bruit numérique. Revers de la médaille, l’opération peut prendre jusqu’à dix secondes. Et le résultat paraît moins naturel et peu réaliste, donnant souvent l’impression que la scène a été prise en plein jour. Avec une bonne lumière, l’IA se rattrape en rajeunissant le mode automatique d’antan. Elle devine seule le type de prise de vue effectuée. S’il s’agit d’une fleur, la puce reconnaît sa forme, et applique les réglages appropriés. À savoir, augmenter la saturation des couleurs, faire la mise au point sur les pétales et flouter l’arrière-plan. Avec du texte, le processeur force le contraste pour améliorer la qualité d’une éventuelle reconnaissance de caractères. Mais le mieux peut être l’ennemi du bien. Nous l’avons constaté avec les produits de Huawei, capables de transformer des ambiances nuageuses en grand ciel bleu! Côté réalisme, on repassera.
L’enregistrement vidéo, un défi à relever
Clé de voûte de cette technologie, l’anticipation est également mise à profit dans la capture des vidéos sur smartphone. Son ambition : corriger le flou de bougé. Jusqu’à cette année, on avait le choix entre la stabilisation électronique (EIS) réalisée par des algorithmes, la plus courante, et la stabilisation optique (OIS), opérée par la suspension magnétique de la lentille pour compenser les mouvements brusques ou par un déplacement du capteur photo lui-même grâce à des micromoteurs (Mems). Très onéreuse, cette dernière n’est employée que sur les smartphones haut de gamme. Avec son P20 Pro sorti en avril 2018, Huawei a introduit l’AIS (Artificial Intelligence Image Stabilisation). Cette version améliorée de l’EIS prévoit et corrige le mouvement des pixels sur l’image suivante à partir de ceux de la précédente. Résultat : l’appareil est stabilisé sur six axes (aux trois axes s’ajoute la rotation sur chacun d’entre eux) et se montre insensible aux perturbations magnétiques qui affectent les performances des OIS. Cette surprenante stabilité se paie au prix d’une latence de quelques dizaines de millisecondes dans la captation, due aux calculs opérés. Avec le machine learning, l’IA améliore aussi la mise au point des sujets en mouvement en prédisant leur trajectoire. Prochaine étape : modifier la vidéo en temps réel pour supprimer un personnage ou un objet de l’image. Cette opération nécessite beaucoup plus de puissance de calcul que n’en disposent les NPU des mobiles actuels.
La nouvelle amie des grandes dalles
Les fabricants de téléviseurs nous survendent des affichages 4K UHD, voire 8K. Or nous n’avons jamais autant consommé de formats d’image différents, issus de YouTube, Netflix, des téléphones ou du bon vieux lecteur de DVD du salon. Les DSP traditionnels ne suffisent plus à traiter cette variété et, surtout, ces écarts de définition. L’IA, elle, peut réaliser une mise à l’échelle acceptable en rajoutant en temps réel des pixels à l’image. Pour cela, elle s’appuie sur ceux présents dans la vidéo d’origine mais aussi sur des centaines de filtres issus de la base de données du constructeur. Sur les serveurs de Samsung en Corée du Sud, par exemple, l’intelligence artificielle reconstitue des vidéos volontairement dégradées afin de pouvoir comparer le résultat à l’image de référence. Cet apprentissage est ensuite mis à profit pour enjoliver les contenus originaux de faible qualité de l’utilisateur directement sur son téléviseur. Correction des effets d’escalier, des dérives chromatiques, des artefacts, mais aussi des éléments plus discrets comme le rendu des yeux, des cheveux ou de la peau. La mise à l’échelle devient plus fine et moins perceptible, mais demeure encore visible. L’intelligence artificielle doit continuer à apprendre.z