L. Bardon . – Google a appris à ses dépens quelques leçons d’éthique en matière d’IA, à travers ses propres controverses. En 2015 par exemple, Google s’est excusé et a empêché son application Photos de détecter les gorilles après qu’un utilisateur ait signalé que le service avait appliqué cette étiquette à des photos de lui avec un ami noir. Les luttes de Google s’inscrivent dans une prise de conscience plus large des experts en technologies selon laquelle l’IA peut aussi bien nuire qu’aider le monde. Les systèmes de reconnaissance faciale, par exemple, sont souvent moins précis pour les personnes dont la peau est noire et les logiciels de texte peuvent renforcer les stéréotypes. Dans le même temps, les régulateurs, les législateurs et les citoyens se méfient de plus en plus de l’influence de la technologie sur la société. Quant à Google, sa division “cloud” va bientôt inviter ses clients à externaliser quelque chose de moins tangible que les processeurs et les lecteurs de disque, la société prévoit de lancer de nouveaux services d’éthique en matière d’IA avant la fin de l’année.
Le philosophe Peter Singer soutient que les créatures qui peuvent ressentir la douleur ou souffrir peuvent prétendre à la moralité. Il soutient que les animaux non humains ont un statut moral, puisqu’ils peuvent ressentir la douleur et souffrir. Le limiter aux personnes serait une forme de spécisme, quelque chose qui s’apparente au racisme et au sexisme. Sans approuver le raisonnement de Singer, on peut se demander s’il est possible de l’étendre à un robot androïde comme Data. Il faudrait pour cela que Data puisse soit ressentir la douleur, soit souffrir. Et la réponse à cette question dépend de la façon dont vous comprenez la conscience et l’intelligence. À mesure que la technologie de l’intelligence artificielle (IA) progresse vers les versions imaginées par Hollywood, la question de la position morale devient plus importante.
L’intelligence artificielle générale, AGI, est le terme qui désigne les machines qui ont une intelligence multi-domaines. On peut dire qu’aucune machine n’a encore fait preuve de ce type d’intelligence. Cet été, une startup appelée OpenAI a publié une nouvelle version de son modèle de langage de pré-formation générative. Le GPT-3 est un système de traitement du langage naturel, formé à la lecture et à l’écriture afin d’être facilement compris par les gens. Il a immédiatement attiré l’attention, non seulement en raison de son impressionnante capacité à imiter les fioritures stylistiques et à rassembler un contenu plausible, mais aussi en raison du chemin parcouru depuis une version précédente. Malgré cette performance impressionnante, GPT-3 ne sait rien faire d’autre que de relier des mots de différentes manières. L’AGI reste assez éloigné.
La conscience comporte deux parties. Tout d’abord, il y a l’aspect « qu’est-ce que c’est pour moi » d’une expérience, la partie sensorielle de la conscience. Les philosophes appellent cette conscience phénoménale. Il s’agit de la façon dont vous vivez un phénomène, comme sentir une rose ou ressentir une douleur. En revanche, il y a aussi la conscience d’accès. C’est la capacité de signaler, de raisonner, de se comporter et d’agir de manière coordonnée et sensible à des stimuli basés sur des objectifs.
Il n’existe pas encore d’IA généraliste. Mais le moment est venu de commencer à réfléchir à ce qu’il faudrait faire pour leur conférer un statut moral. La façon dont l’humanité choisira de répondre à la question du statut moral des créatures non biologiques aura de grandes implications sur la façon dont nous traiterons les futures IA – qu’elles soient aimables et utiles comme Data, ou vouées à la destruction, comme Skynet.