Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

Comment faire coexister les “valeurs” de plusieurs systèmes d’intelligence artificielle ?

1

Imaginez être assis dans une voiture autonome sur le point de prendre un virage à gauche pour s’insérer dans le trafic. Un petit système d’IA donne l’ordre au véhicule de tourner, un autre système s’occupe d’accélérer ou freiner, d’autres systèmes disposent de capteurs qui détectent les obstacles, et un dernier système communiquent avec les autres véhicules sur la route . Chaque système a ses propres objectifs – démarrer ou arrêter, tourner ou continuer tout droit, détecter des problèmes potentiels, etc. – mais ils doivent tous travailler ensemble vers un objectif commun : circuler sans provoquer d’accident. Le professeur d’Harvard, David Parkes, essaye justement de résoudre ce type de problème grâce au reinforcement learning. Le reinforcement learning est une technique souvent utilisée pour concevoir un système d’intelligence artificielle. Quand l’intelligence artificielle agit, elle reçoit une rétroaction positive ou négative. Et puis elle essaie ensuite d’optimiser ses actions pour obtenir plus de récompenses positives. Cependant, la récompense ne peut pas simplement être programmée dans le système d’intelligence artificielle. Ce dernier doit interagir avec son environnement pour apprendre quelles actions seront considérées comme bonnes, mauvaises ou neutres.

La suite ici

Partager cet article: Share on FacebookTweet about this on TwitterShare on LinkedInShare on Google+Pin on PinterestEmail this to someoneShare on RedditShare on Tumblr
Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*