Les chercheurs résolvent de plus en plus facilement des problèmes auxquels se heurtent les ordinateurs depuis des décennies, comme reconnaître des images ou comprendre le langage. Pendant ce temps des géants comme Google et Facebook injectent des millions de dollars dans leur propres projets sur l’intelligence artificielle. Qu’est-ce qui pourrait mal tourner ? Un système d’intelligence artificielle conçu pour optimiser les transactions boursières sans code moral pourrait effectuer des opérations illégales par exemple. Russel et UC Berkeley ont donc créé un nouveau centre de recherche autour de l’intelligence artificielle pour adresser les problèmes potentiels et développer des systèmes dotés d’un code moral. Parallèlement OpenAI travaille, en tout indépendance, sur des projets en intelligence artificielle pour s’assurer que toute l’humanité profite des bienfaits de l’IA. Russell compare la situation actuelle de l’IA à celle de l’énergie nucléaire au cours des années 1950 et 1960. A cette époque les partisans croyaient que «tous ceux qui étaient en désaccord avec eux étaient irrationnels ou fous » de vouloir mettre en place des mesures de sécurité robustes qui pourraient nuire à l’innovation et l’adoption de cette énergie.
Pourquoi l’intelligence artificielle doit intégrer un code moral
(Visited 128 times, 1 visits today)