Laboratoire d'idées Deeptech for good : innovation et prospective

“Si l’IA doit nous aider à gérer une crise, nous avons besoin d’un nouveau type d’éthique”

deep tech innovation NBIC IA éthique

Image par Johann Bret Bautista de Pixabay

L. Bardon . - Les géants technologiques ne construisent rien. Ils sont très doués pour concevoir des produits très attractifs, principalement pilotés par des logiciels, qui nous rendent la vie plus commode à bien des égards. Mais ils sont beaucoup moins doués pour réinventer les soins de santé, repenser l’éducation, rendre la production et la distribution alimentaires plus efficaces et, d’une manière générale, mettre leur savoir-faire technique au service des plus grands secteurs de l’économie. La modération de contenu en ligne est un travail traumatisant et difficile, de sorte que les GAFA sont désireuses de s’appuyer sur des systèmes d’IA plutôt que sur des êtres humains (ils sont aussi beaucoup moins chers). Les systèmes d'IA sont entraînés à partir de données intégrant les biais de nos sociétés. S'ils automatisent et facilitent l'exécution de certaines tâches bénéfiques à l'humanité, ils peuvent aussi amplifier les biais racistes. 

Jess Whittlestone du Leverhulme Centre for the Future of Intelligence de l’Université de Cambridge et ses collègues ont récemment publié un article dans Nature Machine Intelligence, dans lequel ils affirment que si l’intelligence artificielle doit aider en cas de crise, nous avons besoin d’une nouvelle façon, plus rapide, d’appliquer l’éthique de l’IA, ce qu’ils appellent éthique de l’urgence.

Avec cette pandémie, nous sommes soudainement dans une situation où les gens se demandent si l’IA peut être utile, si elle peut sauver des vies. Mais la crise a montré clairement que nous ne disposons pas de procédures éthiques suffisamment solides pour que l’IA puisse être déployée en toute sécurité, et certainement pas de celles qui peuvent être mises en œuvre rapidement.

J’ai passé les deux dernières années à examiner les initiatives d’éthique de l’IA, à étudier leurs limites et à me demander de quoi d’autre nous avons besoin. Comparée à quelque chose comme l’éthique biomédicale, l’éthique que nous avons pour l’IA n’est pas très pratique. Elle se concentre trop sur des principes de haut niveau. Nous sommes tous d’accord sur le fait que l’IA doit être utilisée pour le bien. Mais qu’est-ce que cela signifie réellement ? Et que se passe-t-il lorsque des principes de haut niveau entrent en conflit ?

Par exemple, l’IA a le potentiel de sauver des vies mais cela pourrait se faire au détriment des libertés civiles comme la vie privée. Comment aborder ces compromis d’une manière qui soit acceptable pour un grand nombre de personnes ? Nous n’avons pas encore trouvé comment gérer les inévitables désaccords.

L’éthique de l’IA tend également à répondre aux problèmes existants plutôt qu’à en anticiper de nouveaux. La plupart des questions dont on discute aujourd’hui autour de la partialité algorithmique n’ont été soulevées que lorsque des événements très médiatisés ont mal tourné, comme dans le cas des décisions de police et de libération conditionnelle.

A qui la santé donne-t-elle la priorité ? Comment sauver des vies sans détruire l’économie ? Si une IA est utilisée dans la prise de décision publique, la transparence est plus importante que jamais.

Nous devons penser l’éthique différemment. Il ne faut pas que ce soit quelque chose qui se passe sur le côté ou après, quelque chose qui vous ralentit. Elle devrait simplement faire partie de la façon dont nous construisons ces systèmes en premier lieu : l’éthique by design.

J’ai parfois l’impression que “éthique” n’est pas le bon mot. Ce que nous disons, c’est que les chercheurs et les ingénieurs doivent être formés à réfléchir aux implications de ce qu’ils construisent, qu’ils fassent de la recherche fondamentale comme la conception d’un nouvel algorithme d’apprentissage par renforcement ou quelque chose de plus pratique comme le développement d’une application de soins de santé. Si leurs travaux se retrouvent dans des produits et services du monde réel, à quoi cela pourrait-il ressembler ? Quels types de questions pourraient-ils soulever ?

La suite ici (Will Douglas Heaven)

(Visited 30 times, 1 visits today)

Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

%d blogueurs aiment cette page :