Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

Pourquoi l’IA décisionnaire constitue un enjeu/risque majeur

AI photo

Pendant des siècles, Dieu a servi de « solution de secours » pour toutes les choses que les humains ne comprenaient pas. L’essor de l’intelligence artificielle fonctionne sur le même principe. Même si les humains créent des algorithmes qui font fonctionner nos machines, beaucoup de ces scientifiques ne savent pas expliquer clairement les résultats obtenus.

Le processus d’apprentissage profond (deep learning), grâce auquel une machine extrait de l’information de façon non supervisée pour apprendre,  exploite un paradoxe humain connu de longue date : nous croyons disposer du libre arbitre, alors que nous sommes un animal bourré d’habitudes et de schémas cognitifs que nous répétons. Nos machines apprennent en fait en nous observant. Il est donc logique de recréer nos propres processus au sein de nos machines ; ils correspondent à ce que nous sommes consciemment ou pas. Nous avons créé des dieux de la même façon, en leur instillant de nos essences. Mais il reste un problème.

L’Homme possède une caractéristique déterminante qui le singularise des animaux, la capacité de travailler ensemble à très grande échelle. En accordant notre foi à une IA que nous ne comprenons pas (voitures autonomes, politiques éducatives, dépistage du cancer…) nous risquons de perdre en autonomie, mais également les qualités cognitives et émotionnelles supérieures qui nous rendent humains, telles que la compassion, l’empathie et l’altruisme. Quelle est la garantie que les machines apprennent ces traits ? En fait, l’inverse est même plutôt probable. Ce qui pourrait avoir des impacts importantes.

Est-ce qu’une IA qui détecte une cellule cancéreuse saura écarter la stratégie qui viserait à tuer l’hôte pour éradiquer la tumeur ? Un drone autonome se rendra-t-il compte qu’il n’a pas besoin de détruire un village pour neutraliser un seul terroriste ? Nous aimerions supposer que des experts évaluent le niveau moral des algorithmes. Mais comment faire lorsque la machine apprend de façon autonome ?

Plus globalement quel type de machines créons-nous si nous ne leur reconnaissons qu’une « sorte d’intelligence » inférieure à la notre ? Que se passe-t-il si des pirates piratent un réseau automobile autonome ? Pire encore, si des machines le font elles-mêmes ? Le danger pour les utilisateurs d’applications sur smartphones ignorant les algorithmes derrière pose toutes sortes de problèmes de confidentialité liés par exemples aux entreprises qui exploitent et vendent des données sans qu’ils n’en aient connaissance.

source

Partager cet article: Share on FacebookTweet about this on TwitterShare on LinkedInShare on Google+Pin on PinterestEmail this to someoneShare on RedditShare on Tumblr
Loïc Bardon
A propos Loïc Bardon

Futurologue passionné par les NBIC, la singularité et le transhumanisme - Co-fondateur du think&do tank virtuel Paris Singularity - Membre actif de l'institut de recherche technologique virtuel envisioning.io

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*