Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

Avide, fragile, opaque et superficiel : les inconvénients de l’apprentissage en profondeur

Sundar Pichai, PDG de Google, a déclaré que l’intelligence artificielle (IA) “est plus profonde que l’électricité ou le feu.” Andrew Ng, qui a fondé Google Brain et investit maintenant dans des startups en IA, a écrit que “Si une personne est capable d’exécuter une tâche mentale avec moins d’une seconde de réflexion, nous pouvons probablement l’automatiser en utilisant l’IA soit maintenant soit dans un avenir proche”. Leur enthousiasme est pardonnable. Il y a eu des progrès remarquables en IA, après des décennies de frustration. Au cours des 50 dernières années, des milliards de dollars en financement de la recherche et en capital de risque ont été injectés dans le domaine de l’IA. Il s’agit du cours le plus demandé dans les programmes d’informatique au MIT et à Stanford. Dans la Silicon Valley, les spécialistes de l’IA nouvellement formés reçoivent un demi-million de dollars en salaire et en actions. Cependant, il reste beaucoup de choses que les gens peuvent faire rapidement et dont les machines “intelligentes” ne sont pas capables.

L’IA moderne, basée sur l’apprentissage en profondeur, reste limitée. L’apprentissage en profondeur est basée sur les mathématiques. Il s’agit d’une méthode statistique dans le cadre de laquelle les ordinateurs apprennent à classifier des modèles à l’aide de réseaux neuronaux. De tels réseaux possèdent des entrées et des sorties, un peu comme les neurones de notre propre cerveau ; on dit qu’ils sont “profonds” quand ils possèdent plusieurs couches cachées qui contiennent de nombreux nœuds et une multitude de connexions. L’apprentissage en profondeur utilise un algorithme dit de “rétropropagation” qui ajuste les poids mathématiques entre les nœuds, de sorte qu’une entrée mène à la bonne sortie.

L’apprentissage en profondeur est dit “supervisé” lorsque des réseaux neuronaux sont formés pour reconnaître les phonèmes, les photographies ou la relation du latin à l’anglais en utilisant des millions ou des milliards d’exemples antérieurs laborieusement étiquetés. Les progrès de l’apprentissage profond sont le produit de la reconnaissance de formes : les réseaux neuronaux mémorisent des classes de choses et savent plus ou moins bien les identifier quand ils les rencontrent à nouveau. Mais la majorité des problèmes complexes de cognition ne sont pas du tout des problèmes de classification.

Gary Marcus, professeur de psychologie cognitive à l’Université de New York et brièvement directeur du laboratoire d’intelligence artificielle d’Uber, a récemment publié une remarquable trilogie d’essais, offrant une évaluation critique de l’apprentissage profond.

Selon des sceptiques comme Marcus, l’apprentissage profond est gourmand, fragile, opaque et superficiel. Les systèmes sont avides parce qu’ils exigent d’énormes quantités de données de formation. Il est fragile parce que lorsqu’un réseau neuronal est soumis à un “test de transfert”(face à des scénarios qui diffèrent des exemples utilisés en formation) il ne peut pas contextualiser la situation et échoue fréquemment. Ils sont opaques parce que, contrairement aux programmes traditionnels avec leur code formel et débuggeable, les paramètres des réseaux neuronaux ne peuvent être interprétés qu’en fonction de leur pondération au sein d’une géographie mathématique. Il s’agit donc de “boîtes noires” dont les résultats ne peuvent être expliqués, ce qui fait douter de leur fiabilité et des biais qu’ils contiennent. Enfin, ils sont superficiels parce qu’ils sont programmés avec peu de connaissances innées et qu’ils ne possèdent pas de bon sens sur le fonctionnement du monde ou de la psychologie humaine. Ces limitations induisent le fait que beaucoup d’automatismes seront plus difficiles à saisir que ne l’imaginent les hyperbolistes de l’IA. Le remède pour l’IA, selon Marcus, est le syncrétisme : combiner l’apprentissage en profondeur avec des techniques d’apprentissage non supervisées qui ne dépendent pas tellement des données d’entraînement labellisées, ainsi que la description du monde via les règles logiques qui dominaient le monde de l’IA avant l’émergence de l’apprentissage en profondeur.

La suite ici (Jason Pontin)

(Visited 36 times, 1 visits today)

Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*