Comment Twitter a engagé les plus grands détracteurs de la technologie pour développer une IA éthique

deep tech innovation IA éthique

deep tech innovation IA éthique

L. Bardon . – Les systèmes d’IA causent des problèmes qui touchent de manière disproportionnée des groupes marginalisés. Les efforts éthiques mondiaux en cours en matière d’IA visent à aider tout le monde à en tirer des bénéfices tout en minimisant les dommages. Globalement il s’agit de créer des lignes directrices et des principes à suivre par les développeurs, les bailleurs de fonds et les régulateurs. Or “équité”, “vie privée” et “partialité” ont des significations différentes selon les cultures. Les gens ont également des attentes différentes à l’égard de ces concepts en fonction de leurs propres réalités politiques, sociales et économiques. Les défis et les risques posés par l’IA diffèrent également en fonction du lieu où l’on se trouve. Si les organisations travaillant sur l’éthique de l’IA mondiale ne le reconnaissent pas, elles risquent de développer des normes qui sont, au mieux, insignifiantes et inefficaces dans toutes les régions du monde. 

Ari Font, ingénieur en apprentissage automatique, s’inquiétait de l’avenir des algorithmes de Twitter. Nous sommes au milieu de l’année 2020 et la chef de l’équipe chargée de la recherche sur l’éthique et la responsabilité des algorithmes de l’entreprise vient de quitter Twitter. Pour Ari Font, l’avenir de la recherche sur l’éthique n’était pas clair.

Elle s’est donc portée volontaire pour aider à reconstruire l’équipe META de Twitter (META signifie Machine Learning, Ethics, Transparency and Accountability), se lançant dans ce qu’elle a appelé une tournée de présentation pour persuader Jack Dorsey et son équipe que l’éthique de l’apprentissage automatique n’avait pas seulement sa place dans le domaine de la recherche. En l’espace de quelques mois, après une litanie de conversations avec Dorsey et d’autres hauts dirigeants, Font n’avait pas seulement obtenu une place plus puissante et opérationnelle pour l’équipe autrefois réduite. En plus du budget pour augmenter ses effectifs et le recrutement d’un nouveau directeur, elle a fini par persuader Dorsey et le conseil d’administration de Twitter de faire de Responsible ML l’une des principales priorités de Twitter pour 2021, ce qui a permis de faire évoluer le travail de META vis-à-vis des produits de Twitter.

Un an plus tard, l’engagement de Twitter auprès de l’équipe de Font a convaincu les personnes les plus sceptiques de la technologie, c’est-à-dire la communauté des chercheurs en éthique elle-même. Alors que Google mettait à la porte les éminents éthiciens et chercheurs en IA (Timnit Gebru et Margaret Mitchell) et que Facebook essayait, sans succès, de persuader les politiciens et les chercheurs qu’il n’avait pas le pouvoir de manipuler la façon dont les algorithmes amplifiaient les fausses informations, Twitter donnait à Font et à Jutta Williams, la chef de produit chargé d’aider à rendre opérationnels les travaux de META, les ressources et la marge de manœuvre nécessaires pour engager une équipe de personnes qui pourraient réellement donner suite à la promesse de Twitter d’écouter ses chercheurs.

Pour résoudre les problèmes de Twitter, il faut en fait définir quels sont les “problèmes” des utilisateurs. L’un des rares problèmes facilement identifiables que les utilisateurs ont longtemps dénoncé était la façon dont l’algorithme de Twitter recadrait automatiquement les images, ce qui, de l’avis de nombreux utilisateurs, donnait souvent lieu à un recadrage des images téléchargées de manière à privilégier les personnes à la peau claire et à sexualiser les corps féminins.

La suite ici (Anna Kramer)

(Visited 164 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :