L. Bardon . – Les entreprises comme Facebook créent un nouveau type de marché à partir de nos expériences humaines privées. Les réseaux de médias sociaux fonctionnent en utilisant de puissants algorithmes de recommandation de contenu qui sont connus pour mettre les gens dans des chambres d’écho d’informations étroites et ont parfois été utilisés par des acteurs puissants. Elles aspirent toutes les données comportementales qu’elles peuvent glaner de nos moindres mouvements (littéralement, en termes de localisation de nos téléphones) et les transforment avec l’intelligence des machines en prévisions, alors qu’elles apprennent à anticiper et même à orienter notre comportement futur. Ces prédictions sont négociées sur de nouveaux marchés à terme destinés à une nouvelle catégorie de clients professionnels.
Le scandale de Cambridge Analytica a donné le coup d’envoi de la plus grande crise publicitaire jamais traversée par Facebook. Il a aggravé la crainte que les algorithmes, qui déterminent ce que les gens voient sur la plateforme, amplifient les fake news et les discours haineux, et que des pirates russes les aient instrumentalisés pour tenter de faire pencher l’élection en faveur de Trump. Des millions de personnes ont commencé à supprimer l’application. Des employés ont quitté l’entreprise en signe de protestation et la capitalisation boursière de la société a considérablement chuté après la publication de ses résultats en juillet.
Ce qui a débouché sur la création d’une équipe dirigée par Quiñonero avec une directive un peu vague : examiner l’impact sociétal des algorithmes de l’entreprise. Le groupe s’est baptisé Society and AI Lab (SAIL) ; l’année dernière, il a fusionné avec une autre équipe travaillant sur les questions de confidentialité des données pour former Responsible AI.
Lorsque des milliers d’émeutiers ont pris d’assaut le Capitole américain en janvier, organisés en partie sur Facebook et alimentés par les mensonges sur une élection volée qui s’étaient répandus sur la plateforme, cela a clairement montré que l’équipe Responsible AI n’avait pas réussi à faire avancer la lutte contre la désinformation et les discours de haine ; parce qu’elle n’avait jamais fait de ces problèmes son objectif principal en réalité.
Tout ce que l’entreprise fait et choisit de ne pas faire découle d’une seule motivation : l’implacable désir de croissance de Zuckerberg. L’expertise de Quiñonero en matière d’IA a stimulé cette croissance. Son équipe s’est vu confier la tâche de cibler les préjugés en matière d’IA, car la prévention de ces préjugés permet à l’entreprise d’éviter les propositions de réglementation qui pourraient, si elles étaient adoptées, entraveraient cette croissance. La direction de Facebook a également affaibli ou interrompu à plusieurs reprises de nombreuses initiatives visant à éliminer les fausses informations sur la plateforme, car cela aurait compromis cette croissance.
De nouveaux modèles d’apprentissage automatique étant mis en ligne quotidiennement, la société a créé un nouveau système pour suivre leur impact et maximiser l’engagement des utilisateurs. Si un modèle réduit trop l’engagement, il est écarté. Sinon, il est déployé et surveillé en permanence. Mais cette approche a rapidement posé des problèmes. Les modèles qui maximisent l’engagement favorisent également la controverse, la désinformation et l’extrémisme : en d’autres termes, les gens aiment les choses scandaleuses. Parfois, cela enflamme les tensions politiques existantes. L’exemple le plus dévastateur à ce jour est celui du Myanmar, où les fake news virales et les discours de haine à l’égard de la minorité musulmane Rohingya ont transformé le conflit religieux du pays en un véritable génocide.