Les réseaux d’apprentissage en profondeur ne peuvent pas généraliser, mais ils apprennent du cerveau

Image parGerd Altmann de Pixabay

Et si la partialité et les biais permettaient de rendre l’IA plus « intelligente » et plus « humaine ». A l’image des règles génétiques qui entrent en jeu pour initialiser notre cerveau bien avant la naissance, les « biais inductifs » pourraient permettre de rétrécir les nombreuses voies de développement de l’esprit artificiel. D’une manière ou d’une autre, la structure innée de notre cerveau, combinée à un peu d’expérience, nous permet de généraliser facilement les apprentissages. Les réseaux d’apprentissage en profondeur les plus modernes n’en sont pas encore capables.

Dans un nouvel article publié dans Neuron, Tolias et ses collègues en Allemagne soutiennent que pour y parvenir, il ne faut pas plus de données ou plus de couches dans les réseaux neuronaux artificiels. Ils affirment qu’il faudrait plutôt introduire des biais inductifs qui confèreraient aux algorithmes la capacité de généraliser davantage.

Pour chaque type d’architecture, un réseau profond peut avoir des poids de connexion très différents parmi ses neurones. Même s’ils « paraissent » identiques, ils traitent les données d’entrée différemment en raison de leurs connexions neuronales personnalisées. Il faut les considérer comme des frères et sœurs identiques mais qui ne réagissent pas toujours de la même façon aux mêmes circonstances. La « magie » des biais inductifs réside dans le fait de choisir le bon  » frère ou la bonne sœur « , de sorte qu’il a plus de chances de pouvoir généraliser l’apprentissage à la fin de l’entraînement.

Par exemple, les humains ont tendance à mieux traiter les formes que les textures d’une image, alors que certains réseaux d’apprentissage profond fonctionnent de manière inverse. L’ajout de données qui biaisent l’IA en faveur de la priorisation des formes (imitant la cognition humaine) a permis au système d’améliorer ses performances dans la reconnaissance d’images remplies de bruit. C’est parce que les formes résistent mieux au bruit que les textures.

Les biais inductifs ne sont que le dernier exemple en date de la façon dont les neurosciences inspirent la prochaine génération d’IA.

La suite ici (Shelly Fan)

(Visited 50 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *