Fin d’année dernière Elon Musk alertait sur le danger que l’intelligence artificielle ne prenne le contrôle du monde, déclenchant à la fois de nombreux soutiens mais aussi de nombreuses condamnations. Cet événement d’ampleur a été le théâtre surprenant de nombreux désaccords sur le quoi et le quand. Car contrairement aux précédentes inventions humaines l’intelligence artificielle pourrait tout aussi bien nous libérer que nous détruire. Mais grâce au travail de neuroscientifiques, d’ingénieurs en informatique, de théoriciens de l’intelligence artificielle… une image plus nette commence à se dessiner. Depuis le show AlphaGo, les articles, les émissions radios et télévisées se multiplient véhiculant parfois des idées fausses autour de l’intelligence artificielle. Quelles sont actuellement les idées fausses et les mythes ?
Mythe 1 : « Nous ne créerons jamais une intelligence artificielle ayant une intelligence humaine. »
Réalité : Nous avons déjà créé des ordinateurs autant, voir plus performants que l’Homme, dans des domaines précis comme les échecs, le jeu de Go, le trading sur les marchés financiers… Ces ordinateurs et les algorithmes qui tournent dessus ne peuvent que s’améliorer et finir par exceller dans pratiquement toutes les activités humaines. Le psychologue chercheur Gary Marcus a d’ailleurs déclaré que pratiquement toutes les personnes travaillant sur l’intelligence artificielle sont d’accord sur le fait que les machines nous dépasseront. La seule différence entre les sceptiques et les optimistes porte sur le quand, à savoir dans quelques dizaines d’années ou dans 1 siècle.
Mythe 2 : « L’intelligence artificielle sera consciente »
Réalité : A mesure que l’intelligence des machines progresserait, elles deviendraient conscientes et finiraient par penser de la même manière que les humains. Pourtant selon le roboticien cognitif Murray Shanahan, nous ne devrions pas associer intelligence et conscience. Nous utilisons le terme « conscience » pour désigner plusieurs attributs psychologiques et cognitifs faisant intrinsèquement partie des humains. Or on pourraitimaginer qu’une machine extrêmement intelligence ne dispose pas d’un ou plusieurs de ces attributs. Nous pourrions réussir à construire une intelligence artificielle générale mais qui serait incapable d’envisager le monde en étant consciente d’elle -même d’une façon subjective et consciente. Nous devrions donc séparer intelligence et conscience.
Mythe 3 : « Nous ne devrions pas avoir peur de l’intelligence artificielle »
Réalité : Si les algorithmes évolutionnaires peuvent totalement maîtriser une tâche spécifique comme résoudre un problème financier ou pirater le système d’un ennemi, ils restent complètement ignorants vis-à-vis d’autres domaines. AlphaGo, par exemple, excelle au jeu de Go, mais il n’a pas la capacité ou aucune raison d’investiguer en dehors de son domaine d’expertise. Beaucoup d’algorithmes de ce type n’intègrent pas nativement de règles éthiques et/ou de sécurité. Dernier exemple en date, le virus Stuxnet développé par les armées américains et israéliennes pour infiltrer et cibler les centrales nucléaires iraniennes. Ce malware a d’une façon ou d’une autre réussi à infecter une centrale nucléaire russe. Imaginez que ces virus « embarquent » de l’intelligence artificielle.
Mythe 4 : « Une superintelligence artificielle sera trop intelligente pour faire des erreurs »
Réalité : Des personnes considérent que les intelligences artificielles ne peuvent faire que ce pour quoi elles sont programmées. Elles sont coupables de la même erreur que celle faite par les gens qui employaient ces mêmes mots pour affirmer que les ordinateurs ne montreraient jamais aucune flexibilité. Pour Peter McIntyre et Stuart Armstrong les intelligences artificielles sont au contraire largement contraintes par leur programmation. Ils ne croient pas que les intelligences artificielles seront infaillibles. Par définition une superintelligence artificielle est un agent dont l’intellect est supérieur à ceux des meilleurs cerveaux humains dans pratiquement tous les secteurs. McIntyre et Armstrong pensent que l’intelligence artificielle fera seulement ce pour quoi elle est programmée, mais si elle devient assez intelligente, elle comprendra comment contourner ce pour quoi elle était programmée à l’origine.
Mythe 5 : « Une simple « réparation » suffira pour résoudre d’éventuels problèmes de contrôle de l’intelligence artificielle »
Réalité : En prenant l’hypothèse que nous créerons une intelligence artificielle plus intelligente que l’Homme, nous serons confrontés à un problème fondamental, celui de son contrôle. De nombreuses techniques ont été imaginées pour résoudre ce problème. Programmer l’intelligence artificielle pour qu’elle veuille plaire aux humains, ou qu’elle fonctionne comme un outil. Nous pourrions aussi intégrer dans le code source un concept ressemblant à l’amour ou au respect. Et pour l’empêcher de développer une vision monolithique du monde l’intelligence artificielle pourrait être programmée pour tenir compte de la diversité intellectuelle, culturelle et sociale. Mais il ne s’agit que de pistes qu’il faudra expérimenter pour en explorer à chaque fois les implications.
Mythe 6 : « Nous serons détruits par une superintelligence artificielle »
Réalité : Selon Nick Bostrom, une véritable superintelligence artificielle pourrait être l’invention la plus dangereuse jamais créée par l’Homme. Si l’intelligence artificielle ne nous hait pas ou, ne nous aime pas, elle pourrait être « intéressée » par le fait que nous soyions constitués d’atomes. A moins que les objectifs d’une superintelligence artificielle soient le reflet des notres, cette dernière n’aurait aucune raison de nous laisser l’arrêter. Et nous n’y pourrions rien. Mais nous ne pouvons pas savoir à quoi ressemblerait une telle superintelligence. Comme Musk l’a d’ailleurs souligné, la superintelligence artificielle pourrait aussi être utilisée pour contrôler, réguler et surveiller les autres intelligences artificielles. Ou elle pourrait être imprégnée de valeurs humaines ou d’une injonction impérieuse d’être amical avec les humains.
Mythe 7 : « La superintelligence artificielle sera amicale »
Réalité : Le philosophe Immanuel Kant pensait que l’intelligence était fortement corrélée à la moralité. Mais l’idée qu’une intelligence artificielle avancée soit intrinsèquement bonne ne résiste pas à la réalité. Comme Armstrong l’a fait remarquer, il y a beaucoup de criminels de guerre intelligents. Dès lors la relation entre intelligence et morale ne semble pas exister chez les humains.
Mythe 8 : « Les risques inhérents à l’intelligence artificielle et à la robotique sont les mêmes »
Réalité : Il s’agit d’une erreur communément faite et véhiculée par les médias et films de science fiction comme Terminator. Si une superintelligence artificielle comme Skynet voulait vraiment détruire l’humanité, elle n’utiliserait probablement pas d’androids armés. Il serait beaucoup plus efficace de déclencher une peste biologique, ou de détruire l’atmosphère par exemple. L’intelligence artificielle est potentiellement dangereuse, pas vis-à-vis du rôle qu’elle pourrait jouer dans le futur de la robotique, mais plutôt dans la façon dont elle choisira de faire connaître sa présence au monde.
Mythe 9 : « Les intelligences artificielles imaginées dans les récits de science-fiction sont le portrait précis de ce que nous réserve le futur »
Réalité : Depuis des années la science-fiction nourrit abondamment les prédictions des futuristes. Mais l’horizon que dessine une superintelligence artificielle va changer la donne. La nature « inhumaine » d’une telle intelligence artificielle rend totalement impossible toute tentative de prédiction, c’est le principe même de la singularité. La plupart des récits de science-fiction qui existent décrivent une vision plaisante ou effrayante, mais qui ne se fondent sur aucun principe scientifique.
Mythe 10 : « C’est vraiment terrible que des intelligences artificielles nous prennent nos emplois »
Réalité : La capacité d’automatisation de l’intelligence artificielle et son potentiel à détruire l’humanité sont 2 choses totalement différentes. Mais selon Martin Ford, auteur de Rise of the Robots: Technology and the Threat of a Jobless Future, ces 2 notions sont souvent confondues. Oui il faut penser aux implications futures et « extrêmes » qu’auraient une superintelligence artificielle. Mais pas au détriment des questions auxquelles nous allons faire face dans les prochaines décennies. Une des plus importantes d’entre elles c’est l’automation. Que nous soyons « déchargés » d’une grande partie du travail physique ou intellectuel, c’est un objectif quasi utopique pour l’Homme. L’intelligence artificielle va probablement produire de nouvelles façons de créer de la richesse tout en nous libérant d’autres choses. Et les progrès en intelligence artificielle seront concomittants aux avancées dans d’autres domaines comme la production par exemple. Il sera de plus en plus facile et non pas l’inverse de répondre à nos besoins de base.
source (George Dvorsky)