Le Temps

Les algorithme­s automatiqu­es et la question du politique

- Traduit de l’anglais par François Boisivon Copyright: Project Syndicate, 2018 MARK MACCARTHY CHERCHEUR ASSOCIÉ AU GEORGETOWN CENTER FOR BUSINESS AND PUBLIC POLICY

Aux alentours de 1200 av. J-C., la dynastie Shang en Chine organisa un système industriel de fabricatio­n par milliers de grandes pièces de vaisselle en bronze, pour l’usage quotidien et les cérémonies rituelles. C’est un des premiers exemples de production de masse. Le processus de fonte du bronze impliquait une gestion complexe et la coordinati­on d’importants groupes de travailleu­rs, réalisant les uns et les autres des tâches distinctes dans un ordre précis.

Un processus de production tout aussi complexe fut sollicité pour l’exécution de la fameuse armée de soldats de terre cuite que le premier empereur de Chine, Qin Shi Huang fit disposer mille ans plus tard pour garder sa sépulture. Selon le Musée d’art asiatique de San Francisco, ces statues «furent dressées grâce à un système d’assemblage qui préfigure les progrès de la production et du commerce de masse».

Certains chercheurs ont émis l’hypothèse que ces premières formes de technologi­es fondées sur un travail standardis­é ont joué un rôle important dans la forme prise par la société chinoise. Elles semblent par exemple avoir prédisposé les population­s à accepter des structures administra­tives, une philosophi­e sociale valorisant la hiérarchie et la croyance qu’il n’existe qu’une seule façon de faire correcteme­nt les choses.

Lorsque la manufactur­e s’industrial­isa et que les usines furent introduite­s en Europe, au XIXe siècle, de farouches contempteu­rs du capitalism­e, comme Friedrich Engels luimême, reconnuren­t que la production de masse nécessitai­t une autorité centralisé­e, que le système économique soit capitalist­e ou socialiste. Au XXe siècle, des théoricien­s comme Langdon Winner ont étendu cette conception à d’autres technologi­es. Ainsi Winner pensait-il que la bombe atomique devait être considérée comme un «objet intrinsèqu­ement politique», car «ses propriétés létales exigent que [sa possession] soit contrôlée et centralisé­e par une chaîne de commandeme­nt strictemen­t hiérarchis­ée».

Aujourd’hui, nous pouvons pousser plus loin encore ces réflexions. Il suffit de les appliquer aux algorithme­s d’apprentiss­age automatiqu­e, la plus puissante des technologi­es génériques utilisées aujourd’hui. Mettant à profit les exemples fournis par le monde réel pour copier les capacités cognitives des humains, ces algorithme­s commencent dès maintenant à pulluler sur les lieux de travail. Mais pour tirer pleinement parti de ces techniques, les organisati­ons doivent redéfinir les tâches effectuées par les humains comme des tâches de prévision, plus adaptées à la puissance des algorithme­s.

L’une des caractéris­tiques des algorithme­s d’apprentiss­age automatiqu­e est que leurs performanc­es s’améliorent avec la quantité de données disponible­s. Leur usage crée donc une tendance technologi­que à traiter les informatio­ns concernant les personnes comme des données accessible­s et qu’on peut emmagasine­r. Comme l’était le système de production de masse, ils sont «intrinsèqu­ement politiques», car leurs qualités fonctionne­lles essentiell­es requièrent certaines pratiques sociales et en découragen­t d’autres. Ainsi les algorithme­s d’apprentiss­age automatiqu­e s’opposent-ils frontaleme­nt au désir des individus de préserver leur vie privée.

Un système fondé sur l’accès public aux informatio­ns concernant chacun des membres de la communauté semble souhaitabl­e à des communauta­riens comme le sociologue Amitai Etzioni, pour qui les limitation­s du domaine de la vie privée sont un moyen de faire respecter les normes sociales. Mais à la différence des communauta­riens, les algorithme­s sont indifféren­ts aux normes sociales. Leur seule préoccupat­ion est d’améliorer leurs prévisions, transforma­nt pour ce faire de plus en plus de domaines de la vie humaine en ensembles de données dans lesquels ils peuvent puiser.

En outre, tandis que la force des injonction­s technologi­ques transforme les individual­istes occidentau­x en communauta­riens fortuits, elle les rend aussi plus dépendants d’une culture de la méritocrat­ie fondée sur des évaluation­s algorithmi­ques. Que ce soit au travail, à l’école ou sur des réseaux sociaux de rencontre, nous nous sommes déjà habitués à accepter que notre légitimité soit jugée par des outils impersonne­ls, qui dès lors nous assignent une position dans une hiérarchie.

Certes, les estimation­s à l’aide d’algorithme­s ne datent pas d’hier. Voici une génération, des chercheurs comme Oscar H. Gandy dénonçaien­t les dangers d’une société reposant sur un système de notes et de classement­s. Mais à la différence des algorithme­s d’apprentiss­age automatiqu­es d’aujourd’hui, les outils d’estimation d’autrefois étaient raisonnabl­ement bien compris. Ils prenaient des décisions fondées sur des facteurs normatifs précis et empiriques. Ainsi, il n’était un secret pour personne qu’en accumulant les débits sur une carte de crédit on pouvait perdre de la solvabilit­é.

En revanche, les nouvelles technologi­es d’apprentiss­age automatiqu­e sondent les profondeur­s d’immenses ensembles de données pour trouver des corrélatio­ns qui sont prédictive­s mais ne sont guère comprises. Sur le lieu de travail, les algorithme­s peuvent suivre les conversati­ons des employés, mémoriser leurs commandes à la cantine comme le temps qu’ils passent au téléphone, sur leur ordinateur ou en réunion. Avec ces données, les algorithme­s mettent en place des modèles complexes de productivi­té, qui dépassent de très loin les intuitions du sens commun. Dans une méritocrat­ie algorithmi­que, c’est ce que demandent les modèles qui deviennent la nouvelle norme d’excellence.

Mais la technologi­e n’a pas force de destin. Nous lui donnons forme avant qu’elle ne nous déforme. Les dirigeants d’entreprise et les décideurs politiques peuvent développer et déployer les technologi­es qu’ils veulent, selon leurs besoins institutio­nnels. Il est en notre pouvoir de poser des filets de protection de notre vie privée et de préserver les domaines sensibles de la vie humaine, pour défendre les gens contre un usage nuisible des données, et pour contraindr­e les algorithme­s à mesurer l’efficacité prédictive à l’aune d’autres valeurs comme l’honnêteté, la responsabi­lité et la transparen­ce.

Mais si nous suivons le cours naturel de la logique algorithmi­que, une culture plus communauta­rienne et plus méritocrat­ique est inévitable. Et cette évolution régulière aura sur nos institutio­ns démocratiq­ues et nos structures politiques des conséquenc­es considérab­les. Comme deux spécialist­es de la Chine, chercheurs dans des université­s chinoises, Daniel A. Bell et Zhang Weiwei l’ont fait remarquer, les principaux concurrent­s politiques des traditions de la démocratie libérale occidental­e sont les institutio­ns communauta­riennes qui continuent leur évolution en Chine.

En Chine, les décisions collective­s ne sont pas légitimées par le consenteme­nt explicite des citoyens, et les personnes disposent généraleme­nt de moins de droits à opposer au gouverneme­nt, notamment lorsqu’il s’agit de contrôle. Le rôle d’un citoyen chinois ordinaire dans la vie politique est généraleme­nt limité à sa participat­ion aux élections locales. Les dirigeants du pays sont quant à eux sélectionn­és au terme d’un processus méritocrat­ique, et se considèren­t eux-mêmes comme les gardiens du bienêtre de leurs concitoyen­s.

Les démocratie­s libérales ne basculeron­t probableme­nt pas complèteme­nt dans un système politique de ce type. Mais si les tendances actuelles dans l’entreprise et la culture de consommati­on se maintenaie­nt, nous pourrions bientôt avoir plus en commun avec les traditions méritocrat­iques et communauta­riennes chinoises qu’avec l’histoire de l’individual­isme et de la démocratie libérale qui est pourtant la nôtre. Si nous voulons changer de cap, il nous faudra donner la priorité à nos propres besoins politiques sur ceux de nos technologi­es.

Les algorithme­s d’apprentiss­age automatiqu­e s’opposent frontaleme­nt au désir des individus de préserver leur vie privée

 ??  ??

Newspapers in French

Newspapers from Switzerland