L. Bardon . – Il a été démontré à plusieurs reprises que les systèmes d’IA causent des problèmes qui touchent de manière disproportionnée les groupes marginalisés tout en profitant à quelques privilégiés. Les efforts éthiques mondiaux en matière d’IA en cours aujourd’hui – il y en a des dizaines – visent à aider tout le monde à bénéficier de cette technologie et à empêcher qu’elle ne cause des dommages. En général, il s’agit de créer des lignes directrices et des principes à suivre par les développeurs, les bailleurs de fonds et les régulateurs. Mais “Équité”, “vie privée” et “partialité” ont des significations différentes selon les endroits. Les gens ont également des attentes différentes à l’égard de ces concepts en fonction de leurs propres réalités politiques, sociales et économiques. Les défis et les risques posés par l’IA diffèrent également en fonction du lieu où l’on se trouve. Malgré les risques, il existe un manque évident de diversité régionale dans de nombreux conseils consultatifs, groupes d’experts et conseils d’IA nommés par les principales organisations internationales. Le groupe consultatif d’experts pour le projet d’IA pour les enfants de l’Unicef, par exemple, ne compte aucun représentant des régions où la concentration d’enfants et de jeunes adultes est la plus élevée, notamment au Moyen-Orient, en Afrique et en Asie. Les progrès technologiques ont souvent profité à l’Occident tout en exacerbant les inégalités économiques, l’oppression politique et la destruction de l’environnement ailleurs. Inclure les pays non occidentaux dans l’éthique de l’IA est le meilleur moyen d’éviter de répéter ce schéma.
Parity fait partie d’un nombre croissant de start-up promettant aux organisations des moyens de développer, de surveiller et de corriger leurs modèles d’IA. Elles offrent une gamme de produits et de services allant des outils d’atténuation des biais aux plates-formes d’explicabilité. Au départ, la plupart de leurs clients provenaient de secteurs fortement réglementés comme la finance et les soins de santé. Mais l’augmentation de la recherche et de l’attention des médias sur les questions de partialité, de confidentialité et de transparence ont changé la donne. Les nouveaux clients sont souvent simplement préoccupés par leur responsabilité, tandis que d’autres veulent se « prémunir » contre la réglementation.
De nombreuses entreprises disposent d’un système de gestion des risques et de la conformité, et ont mis en place des processus d’atténuation des risques. Atténuer les risques liés à l’IA n’est pas foncièrement différent. Une entreprise doit commencer par examiner les différents éléments qui pourraient la mettre en risque. Il peut s’agir du risque juridique, du risque organisationnel, la possibilité de perdre des employés, du risque de réputation, la possibilité de subir un désastre en matière de relations publiques… À partir de là, elle peut travailler à rebours pour décider de la manière dont elle doit auditer ses systèmes d’AI. Une société financière, opérant dans le cadre des lois américaines sur les prêts équitables, voudrait vérifier si ses modèles de prêt ne sont pas biaisés afin d’atténuer le risque juridique. Une société de télésanté, dont les systèmes s’entraînent sur des données médicales sensibles, pourrait effectuer des audits de confidentialité pour atténuer le risque de réputation.
Alors que Parity se concentre sur la gestion des risques, une autre startup, Fiddler, se concentre sur l’explicabilité. Comme Fiddler, Arthur met l’accent sur l’explicabilité et l’atténuation des biais, tandis que Weights & Biases suit les expériences d’apprentissage par machine pour améliorer la reproductibilité de la recherche. Ces trois entreprises ont observé un changement progressif des préoccupations principales des entreprises, qui passent de la conformité légale ou de la performance des modèles à l’éthique et à la responsabilité.