A chaque moment de votre vie, que vous soyez éveillé ou en train de rêver, vous avez le sentiment intérieur d’être « vous ». Lorsque vous observez un lever de soleil, sentez l’arôme du café du matin ou réfléchissez sur une nouvelle idée, vous vivez une expérience consciente. Pourrait-ce être aussi le cas d’une intelligence artificielle (IA) comme certains des androïdes imaginés dans Westworld ou les êtres synthétiques de Blade Runner ? La question n’est pas si farfelue. Des robots sont en cours de développement pour travailler à l’intérieur de réacteurs nucléaires, faire la guerre ou soigner les personnes âgées. A mesure que des IA plus sophistiquées se développent, les machines devraient prendre en charge de nombreux emplois humains au cours des prochaines décennies. Ces IA pourraient-elles développer une expérience consciente ? Cette question est assez urgente pour plusieurs raisons.
Tout d’abord, les éthiciens craignent qu’il soit « mal » de forcer les IA à nous servir si elles peuvent souffrir et ressentir des émotions. Deuxièmement, la conscience pourrait rendre les AI imprévisibles, ce qui soulève des problèmes de sécurité. Troisièmement, la conscience de la machine pourrait avoir une incidence sur la viabilité des technologies liés aux implants neuronaux dans le cerveau. Alors, que peut-on faire ?
Et si nous n’avions pas besoin de définir la conscience formellement, de comprendre sa nature philosophique ou de connaître sa base neuronale pour reconnaître les signes de conscience d’une IA. Un Test de Conscience de l’IA ( ACT) pourrait examiner si les esprits de synthèse que nous créons ont une compréhension fondée sur l’expérience de la façon dont ils ressentent, de l’intérieur, le fait d’être conscients.