L. Bardon . – Si des chercheurs d’OpenAI affirment avoir montré que l’IA a gagné en efficacité à un rythme effréné, la question de savoir si l’apprentissage en profondeur continue à progresser de manière aussi spectaculaire est une source de débat au sein de la communauté de l’IA. Certains des meilleurs chercheurs du domaine s’interrogent sur le potentiel à long terme de l’apprentissage en profondeur pour résoudre les plus grands défis du domaine. Une étude de Google Health (la première à examiner l’impact d’un outil d’apprentissage en profondeur dans des environnements cliniques réels) révèle que même les IA les plus précises peuvent en fait aggraver les choses si elles ne sont pas adaptées aux environnements cliniques dans lesquels elles vont travailler.
Les chercheurs du Stanford AI Lab (SAIL) ont mis au point une méthode pour traiter les données et les environnements qui changent au fil du temps d’une manière qui surpasse certaines approches de pointe en matière d’apprentissage par renforcement. Lifelong Latent Actor-Critic, alias LILAC, utilise des modèles de variables latentes et une politique d’entropie maximale pour tirer parti de l’expérience passée afin d’améliorer l’efficacité et les performances des échantillons dans des environnements dynamiques.
Les auteurs affirment que l’approche LILAC présente des similitudes avec l’apprentissage tout au long de la vie et les algorithmes d’apprentissage en ligne. Les algorithmes d’apprentissage par méta-apprentissage et par méta-renforcement tentent également de s’adapter rapidement à de nouveaux environnements.