Imaginez être assis dans une voiture autonome sur le point de prendre un virage à gauche pour s’insérer dans le trafic. Un petit système d’IA donne l’ordre au véhicule de tourner, un autre système s’occupe d’accélérer ou freiner, d’autres systèmes disposent de capteurs qui détectent les obstacles, et un dernier système communiquent avec les autres véhicules sur la route . Chaque système a ses propres objectifs – démarrer ou arrêter, tourner ou continuer tout droit, détecter des problèmes potentiels, etc. – mais ils doivent tous travailler ensemble vers un objectif commun : circuler sans provoquer d’accident. Le professeur d’Harvard, David Parkes, essaye justement de résoudre ce type de problème grâce au reinforcement learning. Le reinforcement learning est une technique souvent utilisée pour concevoir un système d’intelligence artificielle. Quand l’intelligence artificielle agit, elle reçoit une rétroaction positive ou négative. Et puis elle essaie ensuite d’optimiser ses actions pour obtenir plus de récompenses positives. Cependant, la récompense ne peut pas simplement être programmée dans le système d’intelligence artificielle. Ce dernier doit interagir avec son environnement pour apprendre quelles actions seront considérées comme bonnes, mauvaises ou neutres.
Comment faire coexister les « valeurs » de plusieurs systèmes d’intelligence artificielle ?
(Visited 86 times, 1 visits today)