La victoire d’AlphaGo rebat les cartes de l’éthique

CbW9Pf1W8AIq3t3

AlphaGo, l’intelligence artificielle de Google DeepMind spécialisée du jeu de Go vient de battre un des meilleurs joueurs au monde, Lee Sedol. Ca n’était pas censé arriver avant 10 ans. Le nombre de combinaisons possibles au jeu de Go est si massif que pour vaincre un joueur de la dimension de Lee, AlphaGo a été conçue pour adopter un plan de jeu “humain” intégrant “l’intuition”. Plutôt que d’implémenter des règles et des stratégies complexes dans AlphaGo, les ingénieurs DeepMind ont enseigné le jeu de Go à l’intelligence artificielle en lui injectant des données liées aux mouvements typiques du jeu. Puis AlphaGo s’est entraînée seule contre elle-même, apprenant sans relâche de ses propres erreurs pour progresser au fil du temps avec le résultat que l’on connaît.

Créer des intelligences artificielles conçues via des algorithmes évolutionnaires, c’est leur donner la possibilité de maîtriser des environnements extrêmement complexes et imprévisibles : parler, conduire, faire la guerre… Ce qui semblait relever de la science-fiction est maintenant techniquement considéré comme faisable, et ce en grande partie grâce au deep learning.

L’intelligence artificielle progresse aussi rapidement dans le traitement de tâches complexes telles que les systèmes de surveillance de comportements frauduleux liés à la carte bancaire, le trading haut fréquence ou la détection de menaces de cybersécurité. Les intelligences artificielles de type deep learning, si elles étaient intégrées à des robots, pourraient s’incarner pour bouger et travailler parmi nous dans les services, les transports, le médical ou l’armée.

Le deep learning représente un changement de paradigme dans les relations que nous entretenons avec les machines. Pour la première fois une intelligence artificielle a véritablement adopté un comportement surprenant et imprévisible.

D’autres intelligences artificielles, conçues pour faire bénéficier l’Homme de capacités qui nous dépassent sur des tâches extrêmement complexes (diagnostic médical, recherche pharmaceutique, gestion des réseaux électriques, protection contre les menaces de cybersécurité…), pourraient s’appuyer sur le deep learning et l’imprévisibilité qui semblent être gage de réussite.

Néanmoins l’imprévisibilité induit une perte de contrôle humain. Lorsque Hassabis est réellement surpris par la stratégie d’AlphaGo, il avoue implicitement un manque de contrôle. Si perdre le contrôle d’une intelligence artificielle dans un contexte comme le jeu de Go n’est finalement pas si important, cette victoire d’AlphaGo a mis en exergue l’urgence à aborder de façon transparente les questions éthiques et de gouvernance qui en découlent.

Quel niveau et quel genre de contrôle devrions-nous abandonner aux voitures autonomes, aux diagnostics artificiels ou aux cybergardiens ?  Comment concevoir un mode de contrôle adapté  à une intelligence artificielle sophistiquée qui a besoin que nous ne la contrôlions pas trop pour se développer ? Est-ce que nous ne devrions tout simplement pas abandonner le développement de certains types d’intelligence artificielle qui nécessiteraient une perte de contrôle trop importante ?

Combien d’entreprises, de gouvernements, de citoyens ont ces questions en tête ? Ces questions fondamentales, parmi bien d’autres, ont émergé comme réponse à la victoire d’AlphaGo, et restent sans réponse.

Des organisations comme l’initiative Open Roboethics et la  Foundation for Responsible Robotics ont été créées en ce sens. Elles rassemblent quelques uns parmi les meilleurs experts mondiaux en éthique, science sociale, législation, technologie pour apporter des réponses aux questions que soulèvent la robotique et l’intelligence artificielle.

La suite ici

(Visited 136 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :