Les groupes d’éthique de l’IA répètent une des erreurs classiques de la société

deep tech innovation
deep tech innovation
Image par Gerd Altmann de Pixabay

L. Bardon . – Comparée à quelque chose comme l’éthique biomédicale, l’éthique que nous avons pour l’IA n’est pas très pratique. Elle se concentre trop sur des principes de haut niveau. Nous sommes tous d’accord sur le fait que l’IA doit être utilisée pour le bien. Mais qu’est-ce que cela signifie réellement ? Et que se passe-t-il lorsque des principes de haut niveau entrent en conflit ? A qui la santé donne-t-elle la priorité ? Comment sauver des vies sans détruire l’économie ? Si une IA est utilisée dans la prise de décision publique, la transparence est plus importante que jamais. Nous devons penser l’éthique différemment. Il ne faut pas que ce soit quelque chose qui se passe sur le côté ou après, quelque chose qui vous ralentit. Elle devrait simplement faire partie de la façon dont nous construisons ces systèmes en premier lieu : l’éthique by design.

Il a été démontré à plusieurs reprises que les systèmes d’IA causent des problèmes qui touchent de manière disproportionnée les groupes marginalisés tout en profitant à quelques privilégiés. Les efforts éthiques mondiaux en matière d’IA en cours aujourd’hui – il y en a des dizaines – visent à aider tout le monde à bénéficier de cette technologie et à empêcher qu’elle ne cause des dommages. En général, il s’agit de créer des lignes directrices et des principes à suivre par les développeurs, les bailleurs de fonds et les régulateurs.

Ce travail n’est ni facile ni simple. “Équité”, “vie privée” et “partialité” ont des significations différentes selon les endroits. Les gens ont également des attentes différentes à l’égard de ces concepts en fonction de leurs propres réalités politiques, sociales et économiques. Les défis et les risques posés par l’IA diffèrent également en fonction du lieu où l’on se trouve.

Si les organisations travaillant sur l’éthique de l’IA mondiale ne le reconnaissent pas, elles risquent de développer des normes qui sont, au mieux, insignifiantes et inefficaces dans toutes les régions du monde. Au pire, ces normes défectueuses conduiront à la mise en place d’autres systèmes et outils d’IA qui perpétueront les préjugés existants et seront insensibles aux cultures locales.

Pour prévenir de tels abus, les entreprises qui travaillent sur des directives éthiques pour les systèmes et outils alimentés par l’IA doivent faire participer les utilisateurs du monde entier à la création de normes appropriées pour régir ces systèmes. Elles doivent également être conscientes de la manière dont leurs politiques s’appliquent dans différents contextes. Malgré les risques, il existe un manque évident de diversité régionale dans de nombreux conseils consultatifs, groupes d’experts et conseils d’IA nommés par les principales organisations internationales. Le groupe consultatif d’experts pour le projet d’IA pour les enfants de l’Unicef, par exemple, ne compte aucun représentant des régions où la concentration d’enfants et de jeunes adultes est la plus élevée, notamment au Moyen-Orient, en Afrique et en Asie.

Les progrès technologiques ont souvent profité à l’Occident tout en exacerbant les inégalités économiques, l’oppression politique et la destruction de l’environnement ailleurs. Inclure les pays non occidentaux dans l’éthique de l’IA est le meilleur moyen d’éviter de répéter ce schéma.

La suite ici (Abhishek Gupta&Victoria Heath)

(Visited 16 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :