L. Bardon . – Le nœud de l’IA, de la médecine, de la biologie et de la science des matériaux sera aux prochaines décennies ce que la Silicon Valley a été à la fin du 20e et au début du 21e siècle. Pourquoi cela pourrait-il marquer la fin de la Silicon Valley telle que nous la connaissons ? Parce que les entreprises plateformes n’ont pas réussi à s’autoréguler, elles se verront imposer des limites à leur potentiel de bien et de mal. Bon nombre des marchés sur lesquels des fortunes seront faites sont réglementés. Or, naviguer sur des marchés réglementés requiert des compétences qui semblent faire défaut à la Silicon Valley. Les régulateurs gouvernementaux en Europe et aux États-Unis ont jeté leur dévolu sur les GAFA. Seront-elles suffisantes ? Si elles se fondent sur de vieilles théories, de vieilles compréhensions que les plateformes ont déjà dépassées, alors non. Les marchés sont des écosystèmes, et comme tous les écosystèmes, ils intègrent d’inombrables dépendances cachées.
Timnit Gebru n’aurait jamais pensé qu’un article scientifique lui causerait autant d’ennuis. En 2020, en tant que codirectrice de l’équipe d’éthique de l’IA de Google, Gebru avait pris contact avec Emily Bender, professeur de linguistique à l’université de Washington, et les deux ont décidé de collaborer à une recherche sur l’orientation troublante de l’IA. Mme Gebru voulait identifier les risques posés par les grands modèles de langage. Ces modèles sont issus d’algorithmes entraînés via des quantités colossales de texte.
Depuis quelques années, les entreprises technologiques se sont lancées dans une course pour construire des versions plus abouties et les intégrer dans des produits de consommation. Google, qui a inventé la technique, en utilisait déjà une pour améliorer la pertinence des résultats de recherche. OpenAI a annoncé la plus grande, appelée GPT-3, en juin 2020 et en a concédé la licence exclusive à Microsoft quelques mois plus tard. Gebru s’est inquiété de la rapidité avec laquelle la technologie était déployée.
Le démantèlement de cette équipe a déclenché l’une des plus grandes controverses récente dans le monde de l’IA. Les défenseurs de Google ont fait valoir que l’entreprise avait le droit de superviser ses propres chercheurs. Mais pour beaucoup d’autres, cette affaire a renforcé les craintes quant au degré de contrôle que les géants de la technologie exercent désormais sur ce domaine. Les géants technologiques sont aujourd’hui le principal employeur et bailleur de fonds des chercheurs en IA, y compris, de manière quelque peu ironique, de ceux qui évaluent ses impacts sociaux. Parmi les entreprises les plus riches et les plus puissantes du monde, Google, Facebook, Amazon, Microsoft et Apple ont fait de l’IA un élément central de leurs activités.
Le problème est que l’agenda des entreprises en matière d’IA s’est concentré sur les techniques ayant un potentiel commercial, ignorant largement la recherche qui pourrait aider à relever des défis comme l’inégalité économique et le changement climatique. En fait, elle a même aggravé ces problèmes. La volonté d’automatiser les tâches a entraîné la perte d’emplois et la multiplication de tâches fastidieuses comme le nettoyage des données et la modération de contenu. La volonté de créer des modèles toujours plus grands a fait exploser la consommation d’énergie de l’IA. L’apprentissage en profondeur a également créé une culture dans laquelle nos données sont constamment extraites, souvent sans notre consentement, pour entraîner des produits tels que les systèmes de reconnaissance faciale. Et les algorithmes de recommandation ont exacerbé la polarisation politique, tandis que les grands modèles linguistiques n’ont pas réussi à nettoyer la désinformation. C’est cette situation que Gebru et un mouvement croissant de chercheurs partageant les mêmes idées veulent changer.
Mais l’apprentissage en profondeur n’est pas la seule technique dans ce domaine. Avant son essor, il existait une approche différente : l’IA symbolique. Alors que l’apprentissage en profondeur utilise des quantités massives de données pour enseigner aux algorithmes les relations significatives dans l’information, le raisonnement symbolique se concentre sur l’encodage explicite des connaissances et de la logique basée sur l’expertise humaine. Certains chercheurs pensent désormais que ces techniques devraient être combinées. L’approche hybride rendrait l’IA plus efficace dans son utilisation des données et de l’énergie, et lui donnerait les connaissances et les capacités de raisonnement d’un expert ainsi que la capacité de se mettre à jour avec de nouvelles informations. Mais les entreprises ne sont guère incitées à explorer d’autres approches lorsque le moyen le plus sûr de maximiser leurs profits est de construire des modèles toujours plus grands.