Ce qu’il pourrait se passer si on débattait éthique devant 1 IA superintelligente

Existe-t-il un ensemble de lois morales universelles, et si oui, pouvons-nous enseigner à une intelligence artificielle (IA) ces lois pour l’empêcher de nous nuire ? C’est la question explorée dans un court métrage original récemment publié par The Guardian. Dans le film, les créateurs d’une IA générale font appel à un philosophe moral pour les aider à établir un ensemble de directives morales que devra apprendre et suivre l’IA, ce qui s’avère difficile. Les dilemmes moraux complexes n’ont souvent pas de réponse claire, et nous ne sommes pas encore parvenus à traduire l’éthique en un ensemble de règles non ambiguës. Comment allons-nous enseigner des règles éthiques à l’IA, et en faisant cela, nous protéger ? OpenAI, par exemple, s’est vu dotée d’1 milliard de dollars fin de 2015 pour déterminer comment concevoir 1 IA sûre et qui bénéficie à tous. Plus récemment, des experts de l’IA se sont réunis à Asilomar, en Californie, pour proposer les best practices qui assureraient le développement d’une IA bénéfique. Des premières inquiétudes ont été exprimées sur le fait qu’une IA soit raciste ou sexiste, reflétant les biais humains que nous n’aurions pas envisagé. Si les ingénieurs du film insistent sur le fait que le défi de l’éthique peut être « résolu » et qu’il doit y avoir « un ensemble définitif de lois morales », le philosophe considère qu’un tel ensemble de lois est impossible parce que « l’éthique exige une interprétation ». Ce sujet doit être abordé de façon urgente car l’IA « écoute » et ajuste son algorithme. L’un des facteurs les plus difficiles à comprendre, et pourtant le plus crucial, est la vitesse à laquelle l’IA et la puissance informatique s’améliorent, et que ces progrès continuent d’accélérer.

source

(Visited 96 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *