International, mode d’emploi
Comment concilier big data et IA avec la protection des données personnelles, dans un domaine où la part de l’humain se réduit inexorablement ?
Pour les instituts d’études, il s’agit d’utiliser le big data selon les règles issues du RGPD. Ce que l’on peut résumer autour du concept des 4V : volume, variété, vitesse et véracité.
L’IA et le big data s’invitent désormais régulièrement dans tous les secteurs de l’économie. Ceux dont le coeur de métier est l’analyse de données, les instituts d’opinion et d’études marketing, sont en première ligne pour expérimenter ces technologies de plus en plus disruptives. Avec toutefois le RGPD (règlement général sur la protection des données) comme garde-fou indispensable. Rester vigilants tout en innovant toujours plus mais en prenant garde de rester dans les clous : une équation complexe à plusieurs inconnues.
L’entrée en vigueur du RGPD, depuis mai 2018, a obligé les instituts d’études et cabinets d’enquêtes à se mettre au diapason des règles européennes. Certains ont pris les devants assez tôt en nommant des data protection officer (DPO) en charge de ces épineuses questions. Le big data et l’IA rendent néanmoins ces problématiques d’autant plus sensibles. “Notre DPO cartographie les flux, contrôle la conformité des traitements, participe aux études d’impact, forme et conseille les équipes opérationnelles. Il opère également un travail de veille et il est le garant de notre conformité à la réglementation concernant la protection des données”, explique François Le Corre, chief operating officer de DBi France, entité business intelligence du groupe Havas.
Il faut dire qu’entre-temps, le scandale Facebook/Cambridge Analytica est passé par là. On se souvient en effet de la fuite de données de millions d’utilisateurs Facebook que la société Cambridge Analytica avait commencé à recueillir en 2014. “En tant qu’institut d’études, nous étions déjà par nature très attentifs à l’éthique liée à la data et à son recueil. Nous avons tout de même tenu à remettre à plat nos process pour nous assurer d’être parfaitement en phase avec les nouvelles directives”, explique Martial Rousset, responsable digital du cabinet Enov. Et ce dernier de poursuivre : “il faut garder en tête que beaucoup des mégadonnées que nous exploitons proviennent de nos clients ou de plateformes externes. Pour les données provenant de tiers, nous nous assurons de ne travailler qu’avec des entreprises qui appliquent rigoureusement ce nouveau règlement. Si une data ou une méthodologie ne respecte pas ces directives, nous nous devons de ne pas l’utiliser”.
Pour les instituts d’études, il s’agit d’utiliser le big data selon les règles issues du RGPD. Ce que l’on peut résumer autour du concept des 4V : volume, variété, vitesse et véracité. En termes de volume, pour ce qui concerne la masse plus importante gérée par le big data, rien ne change si ce n’est l’échelle de sécurisation informatique. Pour ce qui touche à la variété des données, c’est plus complexe car les sources sont désormais multiples. “Chaque source nécessite des précautions et des mesures particulières. Dans certains cas, il est difficile de tracer les données et donc de permettre aux personnes qui sont derrière les données de faire valoir leurs droits, note Christophe Jourdain, directeur général adjoint de l’Ifop. La vitesse est une autre problématique. On capte des données à rediffuser et à retraiter presque de manière instantanée. Ce sont des process qui nécessitent d’automatiser la gestion des flux mais aussi le contrôle, l’anonymisation, la mise en cohérence des données. Quant à la véracité, elle fait partie intégrante de notre profession. Il y a de plus en plus de data dont il faut garantir l’authenticité. Il y aura de plus en plus besoin de gens comme nous pour le faire.”
Derrière l’IA, encore l’humain
Si le big data semble sous contrôle, quid de l’intelligence artificielle qui peut, en matière d’enquête et de sondages, poser de possibles questions éthiques ? La Cnil sera là pour veiller sur les docteurs Folamour. Pourtant, les principaux intéressés restent convaincus que l’humain sera toujours dans la première ligne de commandement. “En matière d’intelligence artificielle, on tâtonne encore. Certes, les frontières bougent chaque jour. Cependant, rappelons la loi d’Amara, qui dit que nous avons tendance à surestimer l’impact de la nouvelle technologie à court terme et à la sous-estimer à