C’est trop tard, nous avons déjà appris aux machines à être racistes

1464191583821218

On dit que les enfants ne naissent pas mysogines ou racistes, que la haine est enseignée. L’intelligence artificielle fonctionne de la même manière, et les humains sont des enseignants fabuleux… ProPublica a rapporté, par exemple, qu’un algorithme utilisé pour prédire la probabilité de condamnés à récidiver tend à être plus élevée pour les gens noirs que les blancs. Malgré l’affirmation souvent répétée que de telles approches axées sur les données sont plus objectives que nos méthodes passées, il est clair que nos préjugés très humains ont déteint sur nos machines. Dernier exemple en date : le « bot » Tay de Microsoft, qui a aspiré toutes les insultes et les opinions racistes que les utilisateurs de Twitter lui ont jeté pour finir par radoter des thèses nazies.

Mais les préjugés dans les algorithmes pourraient être beaucoup plus discrets selon Emiel van Miltenburg, un étudiant en doctorat en sciences humaines au Vrije Universiteit Amsterdam. Miltenburg a analysé les descriptions d’images dans la base de données Flickr30K, un corpus populaire d’images Flickr annotées utilisées pour former des réseaux de neurones. Il a découvert un motif de partialité sexiste et raciste dans le langage utilisé pour décrire les images. Ces descriptions sont générées par des humains et les ordinateurs les ont utilisées comme matériel d’apprentissage pour reconnaître et décrire des images.

La suite ici

(Visited 75 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

1 commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *