Ce qu’1 outil d’apprentissage automatique faisant d’Obama un blanc peut (et ne peut pas) révéler de la partialité de l’IA

deep tech innovation IA
deep tech innovation IA
Image par Somchai Chitprathak de Pixabay

L. Bardon . – La Silicon Valley intègre ses biais à toutes les technologies que nous utilisons. En 2015, un algorithme Google Photo a automatiquement étiqueté deux amis noirs comme des “gorilles”, simplement parce que le programme avait été sous-entraîné pour reconnaître les visages à la peau foncée. La même année, un pédiatre britannique s’est vu refuser l’accès au vestiaire des femmes à son gymnase parce que le logiciel utilisé pour gérer son système d’adhésion a automatiquement codé son titre de “médecin” en tant qu’homme. Google cherche à lutter contre les biais culturels intégrés aux systèmes d’IA. Les scientifiques essaient de corriger les biais des systèmes d’IA. PLusieurs projets s’inscrivent dans un effort plus large visant à “guérir” les systèmes automatisés des préjugés et des partis pris cachés. Il s’agit d’un problème crucial qui peut avoir de graves répercussions. 

C’est une image surprenante qui illustre les préjugés profondément ancrés de la recherche sur l’IA. Entrez une image basse résolution de Barack Obama, le premier président noir des États-Unis, dans un algorithme conçu pour générer des visages dépixelés, et le résultat est le visage d’un homme blanc. Il ne s’agit pas que d’Obama. Utilisez le même algorithme pour générer des images haute résolution de l’actrice Lucy Liu ou de la députée Alexandria Ocasio-Cortez à partir d’entrées basse résolution, et les visages résultants sont nettement blancs.

Que nous disent ces résultats et que nous apprennent-ils réellement sur la partialité de l’IA ?

Le programme qui génère ces images est un algorithme appelé PULSE. Il utilise une technique connue sous le nom de « upscaling » pour traiter les données visuelles. Pour transformer une image à basse résolution en une image à haute résolution, le logiciel doit remplir les blancs en utilisant l’apprentissage automatique.

Dans le cas de PULSE, l’algorithme qui fait ce travail est StyleGAN, qui a été créé par des chercheurs de NVIDIA. Bien que vous n’ayez peut-être jamais entendu parler de StyleGAN auparavant, vous connaissez probablement ses travaux. Il s’agit de l’algorithme responsable de la création de ces visages humains étrangement réalistes que vous pouvez voir sur des sites web comme ThisPersonDoesNotExist.com ; des visages si réalistes qu’ils sont souvent utilisés pour générer de faux profils de médias sociaux.

PULSE utilise StyleGAN pour « imaginer » la version haute résolution des entrées pixélisées. Pour ce faire, il ne « améliore » pas l’image basse résolution originale, mais génère un tout nouveau visage haute résolution qui, une fois pixellisé, a la même apparence que celui saisi par l’utilisateur. En d’autres termes, grâce aux données sur lesquelles StyleGAN a été formé, lorsqu’il essaie de créer un visage qui ressemble à l’image pixellisée d’entrée, il utilise par défaut des traits blancs.

Ce problème est extrêmement courant dans l’apprentissage machine, et c’est l’une des raisons pour lesquelles les algorithmes de reconnaissance faciale sont moins performants sur les visages non blancs et féminins. Les données utilisées pour former l’IA sont souvent biaisées vers un seul groupe démographique, les hommes blancs, et lorsqu’un programme voit des données qui ne font pas partie de ce groupe démographique, ses performances sont médiocres. Ce n’est pas un hasard si ce sont les hommes blancs qui dominent la recherche sur l’IA.

Cela témoigne d’un type de biais différent et plus répandu : un biais qui opère au niveau social.

Yann LeCun, le responsable scientifique de l’IA sur Facebook, est devenu le point de mire de ces conversations après avoir tweeté une réponse à l’image disant que « les systèmes d’apprentissage machine sont biaisés lorsque les données sont biaisées », et ajoutant que ce type de biais est un problème bien plus grave « dans un produit déployé que dans un article académique ». L’implication étant : ne nous inquiétons pas trop de cet exemple particulier.

La suite ici (James Vincent)

(Visited 80 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs