Enseigner les valeurs humaines à 1 intelligence artificielle est 1 casse tête

empathic robots

Nous sommes conditionnés par un dogme selon lequel une intelligence artificielle provoquera des erreurs et mêmes des catastrophes si nous ne lui donnons pas un sens moral. Si les ordinateurs sont puissants, ils restent pour l’instant désespérément bêtes dans leur incapacité à saisir l’ambiguïté et le contexte. Des experts de l’intelligence artificielle voudraient s’assurer que les ordinateurs prennent les bonnes décisions lorsqu’ils sont en contact avec les humains. Russell et d’autres veulent faire en sorte que les ordinateurs prennent les décisions «droit» lorsqu’il est placé en contact avec les humains. Mais il y a déjà 20 ans des sociologues étaient arrivés à la conclusion que les machines intelligentes seront toujours le miroir de la connaissance et des expériences des communautés avec lesquelles elles sont intégrées. Le dernier exemple en date, Tay, ne fait qu’ajouter de l’eau à leur moulin. La question n’est donc pas de savoir si nous pouvons faire en sorte de construire des machines qui respecteront les valeurs humains, mais plutôt de déterminer quels humains sont habilités à décider de ces valeurs. Il n’existe pas d’éthique universelle. Les différences cultures engendrent des différences aussi bien dans les modes de pensée que dans les opinions ou même dans la nature même de la vie. Un robot japonais de soins aux personnes âgées, par exemple, ne sera capable d’agir de façon acceptable que pour les séniors japonais, car les programmeurs comprennent la société japonaise. Quels humains devraient avoir le pouvoir social, politique et économique de construire une intelligence artificielle intégrant leurs valeurs ?

La suite ici

(Visited 73 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *