Est-ce qu’une intelligence artificielle peut être éthique ?

Technician with laptop, checking aisle of server storage cabinets in data center

Le mois dernier, AlphaGo, un programme informatique spécialement conçu pour jouer au jeu de Go, a provoqué une onde de choc parmi les aficionados quand il a battu Lee Sedol, l’un des meilleurs joueurs professionnels du monde.

Eric Schmidt, président exécutif de la société mère Google, le propriétaire d’AlphaGo, est très enthousiaste à propos de ce que l’intelligence artificielle signifie pour l’humanité. Avant le match entre Lee et AlphaGo, il a notamment déclaré que “quel que soit le résultat, les progrès en IA feront de nous des êtres plus intelligents, plus capables, et juste de meilleurs êtres humains”.

Mais est-ce vraiment le cas ? Durant la même période, “le chatbot” de Microsoft nommé Taylor qui a été conçu pour répondre aux messages des 18-24 ans a été un échec retentissant. «Tay» était censé être en mesure d’apprendre des messages pour progressivement améliorer sa capacité à mener des conversations engageantes. Malheureusement, 24 heures après son lancement, des personnes mal intentionnées de la webosphères lui avaient inculqué des idées racistes et sexistes. Après des déclarations pro Hitler, Microsoft l’a éteint et supprimé les plus choquants.

Nick Bostrom, le directeur de l’avenir de l’Institut de l’humanité à l’Université d’Oxford, affirme dans son livre Superintelligence qu’il ne sera pas toujours aussi facile d’éteindre une machine intelligente comme cela a été le cas pour Tay. Il définit une superintelligence comme une intelligence qui est “plus intelligente que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales“. Un tel système peut être en mesure de déjouer nos tentatives de le désactiver.

Avec des voitures autonomes déjà sur les routes de Californie, il est trop tôt pour nous demander si nous pouvons programmer une machine à agir de manière éthique. Comme ces voitures s’améliorent de jours en jours, elles vont sauver des vies, car elles seront en mesure de commettre moins d’erreurs que les conducteurs humains. Parfois, cependant, elles devront faire face à un choix entre plusieurs vies. Doivent-elles être programmées pour éviter de percuter un enfant qui traverse la route, même si cela va mettre ses passagers en risque? Qu’en est-il pour un chien? Que faire si le seul risque est d’endommager la voiture elle-même, et non les passagers ?

Peut-être qu’il y aura quelques leçons à tirer des discussions sur les voitures autonomes. Mais ces voitures ne sont pas des êtres superintelligents. Enseigner l’éthique à une machine qui est plus intelligente que nous, dans un large éventail de domaines, est une tâche beaucoup plus ardue.

La suite ici

(Visited 227 times, 1 visits today)
Avatar photo

Ingénieur en technologie de l'information, passionné par l'innovation et la singularité. Co-fondateur du think tank virtuel Paris Singularity.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :