Joanna J. Bryson : éthique et conception de systèmes intelligents type IA

deep tech innovation
Image parTumisu de Pixabay

Nous redéfinissons constamment nos « systèmes » éthique. Par conséquent, la place des systèmes d’intelligence artificielle (IA) dans la société relève de la définition de normes éthiques plutôt que d’une description exhaustive et figée.

Je pars ici d’une hypothèse « fonctionnaliste », à savoir que l’éthique est l’ensemble des comportements qui lient une société. Cette hypothèse me permet d’exploiter la biologie théorique de la socialité et de l’autonomie pour expliquer nos intuitions morales. A partir de ce fondement, je m’étends à la réflexion sur l’éthique possible du maintien de sociétés centrées sur l’être humain ou sur l’artefact. Je conclus que bien qu’il soit possible de construire des systèmes d’IA en tant qu’agents moraux, ça n’est pas souhaitable. En particulier, je soutiens qu’il est peu probable que nous construisions une éthique cohérente dans laquelle il est éthique d’accorder à l’IA une subjectivité morale. Nous sommes donc obligés de ne pas construire l’IA que nous sommes obligés de construire.

Les questions de l’éthique des robots ou de l’IA sont difficiles à résoudre non pas à cause de la nature de la technologie mais à cause de la nature de l’éthique. Comme pour toutes les considérations normatives, l’éthique de l’IA exige que nous décidions de ce qui est  » vraiment  » important ; nos priorités les plus fondamentales. Sommes-nous plus obligés envers notre famille biologique ou envers ceux avec qui nous partageons des idées ? Accordons-nous plus d’importance à la préservation de la culture ou à la génération de nouvelles idées ? Malheureusement, demander « ce qui compte vraiment », c’est comme demander « ce qui s’est passé avant l’heure » : au premier abord, cela sonne comme une bonne question, mais en fait, cela relève d’une erreur de logique. « Avant » n’est pas défini en dehors du contexte temporel. De même, nous ne pouvons supposer de manière indirecte qu’un système de valeurs sous-tend notre système de valeurs. Par conséquent, la place « correcte » des robots et autres artefacts intelligents dans la société humaine ne peut être déterminés à partir de principes fondateurs ou purement par la raison. Ce n’est pas un fait qui peut être établi par la science.

Dans cet article, je soutiens que le cœur de toute éthique réside dans un équilibre négocié ou découvert qui crée et perpétue une société. L’argument descriptif de cet article est que l’intégration d’une nouvelle capacité comme l’intelligence artificielle (IA) dans nos systèmes moraux est un acte d’éthique normatif et non descriptif. Contrairement aux affirmations d’une grande partie de la philosophie antérieure de l’éthique de l’IA (voir par exemple Gunkel et Bryson 2014), il n’y a pas de position nécessaire ou prédéterminée pour l’IA dans notre société. En effet, l’IA et les cadres éthiques sont des miroirs de nos sociétés et sont donc soumis au contrôle humain.

L’éthique a des composantes à la fois descriptives et normatives. L’éthique descriptive est fondée sur l’observation de ce que les gens semblent faire ; elle est liée à la science et ouverte à la mesure et fondée sur des faits. L’éthique normative consiste en des recommandations sur ce qui devrait être fait. Bien que ces recommandations puissent être étayées par des faits descriptifs, par exemple en ce qui concerne les conséquences probables, elles ne sont pas par nature elles-mêmes des faits. En effet, contrairement à la science qui dépend d’une seule réalité, l’éthique normative dépend moins d’une société actuelle que d’une société à laquelle on aspire. Ainsi, un compte rendu des recommandations normatives devrait inclure également un compte rendu des résultats sociétaux escomptés pour une mise en œuvre réussie.

La suite ici (Joanna J. Bryson)

(Visited 40 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *