Laboratoire d'idées Deeptech for good : innovation et prospective

Pourquoi l’intelligence artificielle doit intégrer un code moral

4

Les chercheurs résolvent de plus en plus facilement des problèmes auxquels se heurtent les ordinateurs depuis des décennies, comme reconnaître des images ou comprendre le langage. Pendant ce temps des géants comme Google et Facebook injectent des millions de dollars dans leur propres projets sur l’intelligence artificielle. Qu’est-ce qui pourrait mal tourner ? Un système d’intelligence artificielle conçu pour optimiser les transactions boursières sans code moral pourrait effectuer des opérations illégales par exemple. Russel et UC Berkeley ont donc créé un nouveau centre de recherche autour de l’intelligence artificielle pour adresser les problèmes potentiels et développer des systèmes dotés d’un code moral. Parallèlement OpenAI travaille, en tout indépendance, sur des projets en intelligence artificielle pour s’assurer que toute l’humanité profite des bienfaits de l’IA. Russell compare la situation actuelle de l’IA à celle de l’énergie nucléaire au cours des années 1950 et 1960. A cette époque les partisans croyaient que «tous ceux qui étaient en désaccord avec eux étaient irrationnels ou fous” de vouloir mettre en place des mesures de sécurité robustes qui pourraient nuire à l’innovation et l’adoption de cette énergie.

La suite ici

(Visited 124 times, 1 visits today)

Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


%d blogueurs aiment cette page :