L’algorithme de Google de détection des discours haineux est biaisé

deep tech innovation biais éthique
deep tech innovation biais éthique
Image par Gerd Altmann de Pixabay

L. Bardon . – L’oeuf ou la poule ? Pendant le confinement, plusieurs milliards de personnes ont partagé la même expérience planétaire, ont partagé les mêmes incertitudes et finalement le même besoin irrépressible de les combler. Notre cerveau est accroc à la certitude et fait de nous des drogués de l’information. Or, quelques « dealers » numériques sont capables de nourrir cet appétit planétaire. Bientôt ils pourront même nourrir n’importe quel humain, quel que soit l’endroit où il se trouve ou sa langue. Le numérique, formidable outil de collaboration massive des cerveaux, véhicule un nouveau type d’expérience planétaire régie par des algorithmes ne s’appuyant sur aucun canevas éthique de règles humanistes et universels. Nous construisons un « esprit de ruche planétaire » numérique poussé par notre soif « reptilienne » de certitudes. Les reines de cette ruche ne nous dictent-elles pas déjà ce que nous devons acheter, apprendre, croire, manger, écouter, regarder… ? Mais l’innovation se nourrit d’incertitude ; et vice versa.

Des chercheurs ont construit deux systèmes d’IA et les ont testés sur deux bases de données contenant plus de 100 000 tweets annotés par des humains avec des étiquettes comme « offensant », « aucun » ou « discours de haine ». Un des algorithmes a incorrectement marqué 46% des tweets inoffensifs d’auteurs afro-américains comme étant offensants. Des tests sur des ensembles de données plus importants, dont un composé de 5,4 millions de tweets, ont montré que les messages d’auteurs afro-américains avaient 1,5 fois plus de chances d’être étiquetés comme offensants. Lorsque les chercheurs ont ensuite testé Perspective de Google, un outil d’intelligence artificielle que la société permet à tout un chacun d’utiliser pour modérer les discussions en ligne, ils ont constaté des préjugés raciaux similaires.

Les fusillades de masse perpétrées par les tenants de la suprématie blanche aux États-Unis et en Nouvelle-Zélande ont conduit à des appels de plus en plus nombreux de la part des politiciens pour que les plateformes de médias sociaux fassent davantage pour éliminer les discours de haine. Ces études soulignent à quel point la tâche est complexe.

En se précipitant pour utiliser des systèmes automatiques de suppression des propos offensants, nous risquons de réduire au silence les voix des minorités. La modération de contenu en ligne est une tâche traumatisante et difficile, c’est pourquoi les entreprises technologiques sont désireuses de s’appuyer sur des systèmes d’intelligence artificielle plutôt que sur des êtres humains (ils sont aussi beaucoup moins chers). Cette étude montre les risques énormes inhérents à cette approche.

La suite ici (Charlotte Jee)

(Visited 142 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs