L. Bardon . – “Techlash”, l’animosité croissante envers les grandes entreprises technologiques et leurs impacts sur la société, continuera à définir l’état du monde technologique en 2021. Les dirigeants gouvernementaux, qui ont toujours été les gardiens de la protection de la société contre les effets des nouvelles innovations, sont de plus en plus exaspérés par l’incapacité des politiques traditionnelles à suivre la vitesse et l’ampleur sans précédent des changements. Dans ce vide de gouvernance, les dirigeants d’entreprise reconnaissent une crise de confiance croissante avec le public. Les demandes croissantes des consommateurs et l’activisme des employés exigent une autorégulation plus agressive.
Gebru, une leader très respectée dans la recherche éthique sur l’IA, est connue pour avoir coécrit un article révolutionnaire qui a montré que la reconnaissance faciale était moins précise pour identifier les femmes et les personnes de couleur, ce qui signifie que son utilisation peut finir par les discriminer. Elle a également cofondé le groupe d’affinité « Black in AI » et défend la diversité dans l’industrie technologique. L’équipe qu’elle a contribué à constituer chez Google est l’une des plus diversifiées en matière d’IA et comprend de nombreux experts de premier plan. Ses pairs sur le terrain l’enviaient pour avoir produit un travail critique qui remettait souvent en question les pratiques courantes en matière d’IA.
Une série de tweets, de fuites d’e-mails et d’articles de presse ont montré que le départ de Gebru était le point culminant d’un conflit autour d’un autre journal dont elle était la co-auteur. En ligne, de nombreux autres leaders dans le domaine de l’éthique de l’IA affirment que la société l’a mise à la porte à cause des vérités dérangeantes qu’elle a découvertes sur un axe central de sa recherche – et peut-être sur ses résultats. Plus de 1 400 membres du personnel de Google et 1 900 autres partisans ont également signé une lettre de protestation.
Ce document, qui s’appuie sur les travaux d’autres chercheurs, présente l’histoire du traitement du langage naturel, un aperçu des quatre principaux risques des grands modèles linguistiques et des suggestions pour des recherches ultérieures :
- Coûts environnementaux et financiers: la formation de grands modèles d’IA consomme beaucoup de puissance de traitement informatique, et donc beaucoup d’électricité
- Données massives, modèles impénétrables : les grands modèles linguistiques sont également formés sur des quantités de texte en augmentation exponentielle. Cela signifie que les chercheurs ont cherché à collecter toutes les données possibles sur Internet, de sorte qu’il y a un risque que des propos racistes, sexistes ou autrement injurieux se retrouvent dans les données de formation
- Coûts d’opportunité de la recherche : les chercheurs résument le troisième défi comme étant le risque d’un « effort de recherche mal orienté ». Bien que la plupart des chercheurs en IA reconnaissent que les grands modèles linguistiques ne comprennent pas vraiment le langage et sont simplement excellents pour le manipuler, les grandes entreprises technologiques peuvent gagner de l’argent grâce à des modèles qui manipulent le langage avec plus de précision, et elles continuent donc à investir dans ces modèles
- Illusions de sens : le dernier problème des grands modèles de langage, selon les chercheurs, est que, parce qu’ils sont si bons pour imiter le vrai langage humain, il est facile de les utiliser pour tromper les gens
Bender craint que les actions de Google ne créent un « effet paralysant » sur les futures recherches éthiques en matière d’IA. Nombre des meilleurs experts en éthique de l’IA travaillent dans de grandes entreprises technologiques, car c’est là que se trouve l’argent.