Bumble met en accès libre son outil de filtrage de photos de nudité non sollicitées
L’application de rencontres Bumble rêve d’éradiquer la réception d’images de nu‐ dité non sollicitées. C’est pourquoi l’entreprise a dé‐ cidé d’offrir en accès libre Private Detector, son logi‐ ciel d’intelligence artifi‐ cielle (IA) de filtrage de photos.
Le géant des applications de rencontres, concurrent de Tinder, utilise depuis 2019 son propre outil d’IA qui brouille automatiquement certaines images, comme des torses nus, des armes à feu et des corps dénudés, toutes des photos interdites sur l’applica‐ tion Bumble.
Le choix revient ensuite à la personne récipiendaire du message de débrouiller ou non l’image reçue.
Private Detector est effi‐ cace à 98 %, selon Bumble, qui veut maintenant en faire pro‐ fiter tout le monde.
Vers un Internet plus sûr
Il est nécessaire d'aborder ce problème [de photos de nudité non sollicitées] au-delà de l'écosystème de produits de Bumble et de s'engager dans une conversation plus large sur la façon de traiter le problème [...] pour faire d'In‐ ternet un endroit plus sûr et plus gentil pour tout le monde, a indiqué Bumble dans un communiqué de presse.
Une version affinée de l’IA est désormais offerte gratui‐ tement sur le site GitHub, au grand bonheur des petites entreprises web qui n’ont pas nécessairement les res‐ sources pour développer ce type de logiciel.
Nous espérons que cette fonctionnalité sera adoptée par l'ensemble de la commu‐ nauté technologique.
Un porte-parole de Bumble
Bumble affirme que seule‐ ment 0,1 % des gens sur son application de rencontre en‐ voient ce type de contenu.