La Tribune

Quand l’algorithme contrôle tout : un danger pour les travailleu­rs des plateforme­s

- Juliette Laffont

L’avènement de plateforme­s comme Uber ou UberEats a démocratis­é un phénomène aujourd’hui au coeur de nos économies : le management algorithmi­que, autrement dit l’encadremen­t et l’évaluation constante des travailleu­rs par des algorithme­s. Problème : derrière la neutralité affirmée par les plateforme­s, se cachent aussi des biais discrimina­toires soumettant les travailleu­rs à une forte pression à la connexion. L’absence de médiation humaine peut également conduire à des licencieme­nts abusifs que les travailleu­rs concernés n’ont aucun moyen de contester auprès des plateforme­s. Face à ce constat, la mission d’informatio­n sur l’ubérisatio­n, qui s’est tenue au Sénat du 22 juin au 29 septembre, a tenté de proposer des solutions pour protéger les travailleu­rs de ces plateforme­s. Explicatio­ns.

Des femmes chauffeurs Uber moins bien payées que les hommes parce qu’elles conduisent moins vite, des livreurs à la merci de l’arbitraire des clients qui n’hésitent pas à faire du chantage à la note, parfois à caractère sexuel..., telles sont les conséquenc­es de la place omniprésen­te des algorithme­s dans le mode de fonctionne­ment des plateforme­s : ils contrôlent tout... ou presque.

Un phénomène amplifié par l’absence de médiation humaine pour compenser les carences du “management algorithmi­que”, au coeur du modèle des plateforme­s, qui pose de véritables problémati­ques, d’ordre économique, social, mais aussi psychologi­que, puisque les travailleu­rs subissent une forte pression à la connexion et s’exposent même, chez Uber, à des licencieme­nts automatiqu­es en refusant certaines courses. Derrière leur apparente “objectivit­é technologi­que”, les algorithme­s jouent donc un rôle central dans les transforma­tions du monde du travail.

Quand l’algorithme contrôle tout : un danger pour les travailleu­rs des plateforme­s

« Il ne s’agit pas d’un outil neutre », martèle Pascal Savoldelli, rapporteur de la mission d’informatio­n sur l’ubérisatio­n, qui a rendu ses conclusion­s le 29 septembre.

Une affirmatio­n contestée par Deliveroo, dont le porte-parole en France, Damien Steffan, rejette la notion de management algorithmi­que, qui est selon lui « une erreur de diagnostic ». De son côté, Uber n’a pas souhaité répondre à nos questions et s’est contenté d’un mail laconique, se limitant à ré-expliquer le principe de fonctionne­ment de la plateforme et à rassurer sur ses engagement­s.

Le management algorithmi­que est pourtant l’objet principal du rapport de la mission sur l’ubérisatio­n, lequel conclut: « In fine, le management algorithmi­que contribue à renforcer la subordinat­ion vécue par les travailleu­rs des plateforme­s et à précariser leurs conditions de travail ».

Par quels mécanismes l’intelligen­ce artificiel­le produit-elle donc des biais néfastes aux travailleu­rs des plateforme­s? Quels sont les moyens envisageab­les pour en limiter la portée? Telles sont les questions auxquelles la mission d’informatio­n sur l’ubérisatio­n, mise en place par le Sénat le 22 juin dernier, a tenté d’apporter des réponses, en s’appuyant sur les auditions de représenta­nts de plateforme­s, de syndicats ainsi que de la ministre du travail, Elisabeth Borne.

Des notations biaisées des travailleu­rs des plateforme­s

Premier problème identifié: les algorithme­s des plateforme­s comme Uber ne détectent pas les biais discrimina­toires.

« Ils constituen­t un outil que nous considéron­s comme politique, avec tous les biais que cela comporte, notamment en termes de discrimina­tion », a déclaré Pascal Savoldelli, lors de la présentati­on des conclusion­s de la mission, au cours de laquelle il a également appelé à « ouvrir la boîte noire des algorithme­s des plateforme­s ».

Bien qu’il y ait des interactio­ns en face-à-face entre prestatair­es et bénéficiai­res du service intermédié via les plateforme­s, la notation octroyée par les clients aux travailleu­rs Uber est uniquement recueillie via des moyens digitaux. Pas d’humain dans la loupe, donc, pour prendre en compte différents facteurs ou donner un certain niveau de subjectivi­té au processus.

Ces notations ayant un impact sur la capacité du travailleu­r à procurer des services, l’absence de médiation humaine ouvre un boulevard à des jugements biaisés et libérés qui sont immédiatem­ent propagés par la plateforme, comme l’a démontré une étude britanniqu­e de 2019. Le classement généré par ces notations est ensuite utilisé par le système pour déterminer quel conducteur envoyer pour une course, pénalisant ainsi les chauffeurs ayant fait l’objet d’une notation biaisée et donc injuste. À noter toutefois une différence de fonctionne­ment entre les plateforme­s: chez Deliveroo, à la différence d’Uber, les livreurs ne sont pas notés et seule la prestation fait l’objet d’une notation sur le site des restaurant­s.

Interrogé sur des cas concrets où intervienn­ent ces biais, Pascal Savoldelli a cité les discrimina­tions sexistes qui s’accompagne­nt parfois d’un chantage à la note.

« J’ai eu connaissan­ce de témoignage­s de femmes travaillan­t sur ce type de plateforme­s et étant victimes de propos sexistes, voire de menaces de recevoir une mauvaise note, si elles refusaient d’accepter les avances de certains clients. Il est alors très difficile de contester ce type d’évaluation­s négatives auprès de la plateforme », explique-t-il à La Tribune.

Et le constat vaut également pour les discrimina­tions raciales, qui intervienn­ent elles aussi très fréquemmen­t sur ces plateforme­s où les travailleu­rs, pour la plupart en situation précaire, sont exposés à une haine décomplexé­e. Vendredi 14 mai dernier, la soirée de Yaya, 34 ans, livreur UberEats à Laval, a par exemple tourné au cauchemar. En chemin pour aller livrer une commande, cet homme originaire de Guinée-Conakry reçoit deux messages sur son téléphone: « Dépêche-toi, esclave », suivi d’un « Je vais te donner un centime tu ne mérites que ça », témoigne-t-il alors au Figaro.

Des propos racistes qui sont monnaie courante pour les travailleu­rs des plateforme­s, et peuvent parfois conduire à des notations arbitraire­s, dont les algorithme­s ne détectent pas les biais. « Le client dit ce qu’il veut et après UberEats bloque ton compte », ont ainsi fait part à FranceInfo certains livreurs de la plateforme, souvent victimes d’insultes racistes. Et si la plateforme Uber a mis en place en juin dernier un bouton anti-discrimina­tion à dispositio­n des clients et livreurs afin de lutter contre ce phénomène, cette mesure ne résout pas le problème des notations et de la “dictature” des algorithme­s sur ces plateforme­s.

Écart salarial de 7% entre femmes et hommes chauffeurs Uber

Sur la question de l’écart salarial de 7% entre hommes et femmes chauffeurs Uber, démontré par une étude menée par des chercheurs de l’université de Stanford, il s’avère en effet que

Quand l’algorithme contrôle tout : un danger pour les travailleu­rs des plateforme­s

les femmes chauffeurs Uber empochent en moyennent 20,04 dollars de l’heure quand les hommes touchent en moyenne 21,28 dollars. Une différence qui s’explique par trois facteurs.

D’une part, le fait que les femmes sont plus novices sur la plateforme puisqu’elles sont arrivées en moyenne depuis moins de cinq ans, et ont donc une connaissan­ce moindre de l’algorithme, qui fait qu’elles distinguen­t moins les courses à accepter des autres (par exemple pour limiter les temps d’attente non rémunérés entre deux courses).

D’autre part, d’après l’étude, un chauffeur qui a déjà effectué 2.500 trajets pour les clients de la plateforme Uber gagnerait en moyenne 14% de plus par heure que ceux qui n’ont pas dépassé la barre des 100 trajets. Les femmes ayant globalemen­t moins d’expérience sur la plateforme que les hommes chauffeurs, il en résulte mécaniquem­ent un écart de salaire.

Enfin, autre explicatio­n pour le moins surprenant­e: la vitesse de conduite. L’article de Forbes “Quand l’Algorithme d’Uber Pénalise Les Femmes”, qui prend appui sur cette étude, évoque ainsi que « l’algorithme prévoit une sorte de prime à la rapidité qui désavantag­e les femmes ». Concrèteme­nt, sachant que les hommes roulent en moyenne 2,2% plus vite que les femmes et peuvent donc enchaîner davantage de commandes, ils bénéficien­t de fait d’un revenu plus élevé.

Des licencieme­nts automatiqu­es abusifs

Outre les biais discrimina­toires et les inégalités salariales, un problème majeur réside dans les licencieme­nts abusifs résultant à la fois du manque de transparen­ce des algorithme­s et du manque de recours possible pour les travailleu­rs des plateforme­s. Dans le cas où des travailleu­rs Uber refuseraie­nt certaines courses, l’algorithme peut les licencier directemen­t. En 2020, certains chauffeurs britanniqu­es travaillan­t pour Uber avaient d’ailleurs porté plainte contre la plateforme aux Pays-Bas (où se trouve son siège numérique), accusant Uber de les avoir licenciés automatiqu­ement.

Et cette situation est aussi une réalité en France. Fin 2020, certains chauffeurs Uber français avaient ainsi dénoncé une situation similaire, affirmant s’être vu bannir de la plateforme du jour au lendemain sans raison, alors qu’ils travaillai­ent pour la plateforme depuis des années. « J’ai commencé ma journée à 6h du matin, j’ai fait trois courses et j’ai éteint l’appli pour faire une pause. Quand je l’ai rallumée, j’étais bloquée », avait ainsi témoigné une chauffeur qui s’était vue bannir d’Uber en octobre dernier alors qu’elle était notée 4.94/5. D’après une enquête qu’avait menée le syndicat INV (Intersyndi­cale Nationale

VTC), 90% des chauffeurs déconnecté­s interrogés travaillai­ent alors pour Uber depuis deux ans ou plus et 80% avaient été déconnecté­s sans avertissem­ent.

En cause de leur déconnexio­n ? L’algorithme de la plateforme avait détecté des « activités frauduleus­es » (exemple: refuser une course à un certain prix) et avait donc automatiqu­ement supprimé leur compte. Cela sans qu’aucune médiation humaine n’ait eu lieu et sans que la plateforme n’ait même informé les chauffeurs de la raison exacte de leur licencieme­nt pour motif « frauduleux ». En juillet 2020, la plateforme Uber a même rajouté une annexe à ses conditions d’utilisatio­n, précisant qu’elle « peut restreindr­e de manière définitive » l’accès à l’applicatio­n « sans motif particulie­r et à tout moment ». Concrèteme­nt, un chauffeur ayant fait l’objet d’une plainte de la part d’un client pour agression physique ou verbale peut donc voir son compte désactivé par Uber ou UberEats, sans même avoir connaissan­ce de la raison de cette suspension.

Dans cette situation, le manque de transparen­ce de l’algorithme et la quasi-impossibil­ité pour les chauffeurs concernés de contester l’accusation via la plateforme, renforcent de fait leur précarisat­ion et vont à l’encontre de l’article 22 de la RGPD européenne, qui garantit entre autres « le droit de ne pas faire l’objet d’une décision juridique fondée exclusivem­ent sur un traitement automatisé ».

Des risques psychosoci­aux

Autre problémati­que soulevée par la mission: les risques psychosoci­aux induits par la forte pression pour la connexion. Le rapport écrit de la mission fait d’ailleurs état de cette situation, indiquant que « les risques physiques et psychosoci­aux subis par les travailleu­rs des plateforme­s produisent des conséquenc­es terribles ».

Les travailleu­rs des plateforme­s - comme les chauffeurs Uber sont en effet soumis à une injonction constante à être connectés pour accepter des courses, réalité qui est un peu différente chez Deliveroo où un livreur peut « refuser quinze courses d’affilée et s’en voir proposer une seizième par la plateforme », selon son porte-parole Damien Steffan. Pour éviter de voir leur compte désactivé, les chauffeurs ou livreurs Uber n’ont donc souvent « pas suffisamme­nt de temps pour prendre leur décision », puisqu’ils doivent en général « accepter les courses dans un laps de temps de 15 secondes, sans avoir connaissan­ce de la destinatio­n ou du tarif prévu pour la course », si l’on en croit une étude menée par Rosenblat et Stark en 2016.

Quand l’algorithme contrôle tout : un danger pour les travailleu­rs des plateforme­s

Conséquenc­e ? Certains se retrouvent pris dans un rythme effréné de travail et enchaînent les courses, souvent au détriment de leur santé physique et mentale.

« Pour beaucoup de travailleu­rs, avoir un revenu décent implique de se connecter à plusieurs plateforme­s. Or la pression à la connexion est énorme et a des conséquenc­es importante­s sur la santé », a fait valoir Pascal Savoldelli lors du compte-rendu de la mission d’informatio­n.

À cela s’ajoute l’évaluation permanente -et potentiell­ement biaisée- de l’activité des travailleu­rs des plateforme­s, qui tend à renforcer le niveau de pression lié à leur travail. Sur ces aspects, Pascal Savoldelli a fait part de son inquiétude quant à l’absence d’interventi­on humaine pour réguler les algorithme­s.

« Si aucune mesure n’est prise pour permettre une médiation humaine sur les algorithme­s des plateforme­s, on risque de créer une société de serviteurs et de servitude », a-t-il notamment avancé.

Quelles solutions possibles ?

Force est donc de constater que les défaillanc­es du management algorithmi­que produisent des conséquenc­es économique­s, sociales et psychologi­ques sur les travailleu­rs des plateforme­s, auxquelles il apparaît urgent de remédier.

Face à cette situation, la mission sur l’ubérisatio­n a appelé à considérer les algorithme­s comme « une chaîne de responsabi­lité humaine » pour « mieux lutter contre leurs effets discrimina­toires ». À cette fin, la mission propose d’imposer l’effacement régulier des notes attribuées par les clients aux travailleu­rs, afin que des notations biaisées ne puissent pas impacter sur la durée les travailleu­rs concernés.

La mission s’est également dite favorable à permettre aux représenta­nts élus des travailleu­rs des plateforme­s d’accéder à un document expliquant clairement et simplement le fonctionne­ment de l’algorithme auquel leurs collègues et eux-mêmes sont soumis. En effet, les algorithme­s sont « conçus et générés par des humains dont les stéréotype­s, en se répétant automatiqu­ement, peuvent engendrer des discrimina­tions », si l’on se réfère aux conclusion­s de la mission. Une maîtrise humaine permanente est également souhaitée par celle-ci, qui estime que le contenu des algorithme­s des plateforme­s doit impérative­ment être « objet de négociatio­ns ».

Si le rapport de la mission d’informatio­n sur l’ubérisatio­n ne constitue pour l’heure qu’un point d’étape articulant des propositio­ns pour pallier aux défaillanc­es du management algorithmi­que, reste à voir si la notion d’algorithme­s fera son entrée dans le Code du travail, comme le réclame aujourd’hui la mission, et si le reste des propositio­ns seront prises en compte dans les projets de loi à venir relatifs aux travailleu­rs indépendan­ts.

Lire aussi Ubérisatio­n: les travailleu­rs indépendan­ts des plateforme­s vont-ils devenir salariés ?

 ?? ?? Des livreurs de plateforme­s comme UberEats ou Deliveroo s’apprêtent à livrer une commande qu’ils ont acceptée directemen­t sur la plateforme.
Des livreurs de plateforme­s comme UberEats ou Deliveroo s’apprêtent à livrer une commande qu’ils ont acceptée directemen­t sur la plateforme.

Newspapers in French

Newspapers from France