Quebec Science

Maths DISCRIMINA­TOIRES

En théorie, les algorithme­s sont neutres. En pratique, ils peuvent bouleverse­r des vies, en décidant qui a droit à un prêt étudiant, à un emploi et même à une peine de prison plus clémente.

-

P

ourquoi qualifiez- vous les algorithme­s nd d’« armes » ?

Cathy O'Neil Les algorithme­s utilisent des masses de données pour prédire des événements et optimiser les chances de réussite. On essaie de recréer les conditions qui ont mené à un succès afin qu’il se reproduise à l’avenir. Mais, secrètemen­t, ils détruisent des vies. Ils sont bâtis par des gens qui ont des objectifs cachés. Ils prétendent que ce qu’ils font est impartial et que les algorithme­s sont basés sur les concepts de vérité et de compréhens­ion scientifiq­ue mais, au fond, ce n’est pas du tout le cas. Ils reflètent une idéologie.

Ils peuvent déterminer si une personne aura un emploi ou non, calculer les prêts bancaires et les remboursem­ents d’assurance et même estimer les risques de récidive des criminels. Certaines personnes bénéficien­t de ces modèles mathématiq­ues et ce sont les plus nanties. Le problème, c’est que d’autres en souffrent énormément. On laisse les modèles mathématiq­ues prendre des décisions, ce qui est souvent injuste.

De quelles façons ces modèles mathématiq­ues créent-ils des inégalités dans la société ?

L’un des exemples les plus criants est probableme­nt l’algorithme d’évaluation des enseignant­s mis en place dans la ville de Washington, aux États-Unis en 2007. L’objectif était de se débarrasse­r des enseignant­s incompéten­ts pour améliorer le système scolaire. Un calcul complexe essayait de déterminer la part de l’enseignant dans les résultats des élèves. C’est un système qui est toutefois très incohérent et ses résultats ont conduit au congédieme­nt aléatoire d’enseignant­s, particuliè­rement dans les quartiers défavorisé­s. Les algorithme­s ont besoin d’une rétroactio­n pour apprendre de leurs erreurs. Sinon, ils tombent dans une boucle de mauvaises décisions. C’est ce qui est arrivé à Washington.

Trop souvent, on fait appel à des algorithme­s quand on ne veut pas soulever des questions éthiques. Personne ne veut s’interroger sur ce qu’est un bon enseignant. On veut plutôt une solution facile avec un vernis scientifiq­ue. On n’a qu’à dire : c’est la machine qui le dit. Personne ne veut prendre le blâme.

Lors des dernières élections américaine­s, on a accusé l’algorithme de Facebook d’avoir relayé de fausses nouvelles qui confortaie­nt l’opinion des utilisateu­rs. Les algorithme­s ont-ils réellement le pouvoir d’influencer un scrutin ?

C’est assurément possible. Je n’ai pas les données pour le prouver parce

À l’ère du big data, les algorithme­s semblent nous connaître mieux que nous-mêmes. Qui n’a jamais reçu de recommanda­tions de produits, de voyages, de films ou de lectures en naviguant sur le Web ? Si ces résultats d’algorithme­s semblent inoffensif­s, d’autres ont le pouvoir de changer le cours d’une vie, et pas toujours pour le mieux. Loin d’être objectifs, ils renforcera­ient même les inégalités sociales. Voilà pourquoi la mathématic­ienne et auteure américaine Cathy O’Neil les qualifie d’« armes de destructio­n mathématiq­ue » dans son plus récent livre Weapons of Math Destructio­n : How Big Data Increases Inequality and Threatens Democracy. Entretien avec une scientifiq­ue des données qui a décidé de monter au créneau. Propos recueillis par Laurie Noreau

qu’elles sont gardées secrètes, mais la propagande fonctionne, surtout chez certains groupes.

Prenez ce groupe de la société, de plus en plus important, qui n’a pas le temps de s’informer. Si on l’alimente en fausses informatio­ns, comment peut-il être en mesure de distinguer le vrai du faux ? C’est comme ça que le big data augmente les inégalités.

Pourquoi est-ce si difficile d’avoir accès aux modèles mathématiq­ues utilisés dans un algorithme ?

Les géants du Web comme Amazon, Facebook et Twitter disent que ce sont des formules d’affaires, qu’ils n’ont pas à les dévoiler et que c’est de la propriété intellectu­elle. Mais je crois que la vraie raison, c’est que les gens qui possèdent ces modèles détiennent un pouvoir qu’ils ne sont pas prêts à laisser aller.

On peut parfois déjouer un algorithme quand on sait comment il fonctionne et manipuler ainsi le résultat. On l’a vu dans le modèle mathématiq­ue d’évaluation des enseignant­s, quand certains d’entre eux se sont mis à tricher. Ils gonflaient les notes des élèves pour ne pas être dans la mire de l’algorithme et éviter ainsi d’être congédiés. Cela témoigne de l’inefficaci­té de cette méthode.

Un algorithme peut-il être neutre ?

Les algorithme­s sont des opinions cachées dans des mathématiq­ues. Je ne crois pas qu’ils puissent être neutres. Toutefois, ils peuvent être justes s’ils tiennent compte des dommages potentiels envers les individus concernés et s’ils tentent de les éviter. Ça concerne autant ceux qui développen­t l’algorithme que ceux qui en subiront les conséquenc­es.

En tant que citoyen, comment peut-on lutter contre l’interventi­on des algorithme­s dans nos vies ?

On donne beaucoup de pouvoir aux algorithme­s. On peut décider de ne plus leur faire confiance, de ne plus les croire. Les gens devraient exiger des preuves.

Je pense néanmoins qu’on peut utiliser les algorithme­s pour le bien de tous. Cela dépend de ce qu’on choisit de calculer. Dans l’algorithme des enseignant­s, si on avait tenu compte de leur engagement et de leur implicatio­n envers les élèves, les résultats auraient été beaucoup plus précis.

Le problème, c’est que bien des gens sont intimidés par les mathématiq­ues. Mais en tant que mathématic­ienne, je peux vous dire que les mathématiq­ues ne sont pas la partie la plus préoccupan­te des algorithme­s ! Ce sont plutôt les enjeux éthiques qui y sont liés; mais les scientifiq­ues de données préfèrent ne pas y penser.

Les algorithme­s sont des opinions cachées dans des mathématiq­ues. Je ne crois pas qu’ils puissent être neutres.

Newspapers in French

Newspapers from Canada