Si l’IA est si « intelligente », pourquoi ne peut-elle pas saisir la cause et l’effet ?

Image par PublicDomainPictures de Pixabay

Les modèles d’apprentissage en profondeur peuvent identifier des modèles indétectables par les humains. Mais les logiciels ne peuvent toujours pas expliquer, par exemple, ce qui a provoqué la collision d’un objet avec un autre. Une nouvelle expérience montre combien il est difficile, même pour les meilleurs systèmes d’intelligence artificielle (IA), de saisir la physique rudimentaire et les causes et effets. Elle offre également une piste pour la construction de systèmes d’IA qui peuvent apprendre pourquoi les choses se produisent.

Pourquoi c’est important ? Parce que le défaut de compréhension des causes peut également avoir de réelles conséquences. Les robots industriels parviennent à détecter de mieux en mieux les objets proches, afin de les saisir ou de les déplacer. Mais ils ne « savent » pas que le fait de frapper quelque chose le fera tomber ou se briser, à moins qu’ils n’aient été spécifiquement programmés. Or, il est impossible de prévoir tous les scénarios possibles.

Mais si un robot pouvait raisonner en termes de cause, il pourrait éviter des problèmes qu’il n’a pas été programmé pour comprendre. Il en va de même pour une voiture autonome. Il pourrait « savoir » instinctivement que si un camion fait une embardée et heurte une barrière, son chargement pourrait se déverser sur la route. Le raisonnement causal serait utile pour à peu près n’importe quel système d’IA.

Tenenbaum et ses collègues ont donc construit un nouveau type de système d’IA capable d’apprendre les causes et les effets et qui obtient des résultats bien plus élevés à leur test d’intelligence. Leur approche combine plusieurs techniques d’IA. Le système fait appel à de l’apprentissage en profondeur pour reconnaître les objets d’une scène. Les résultats de cet apprentissage sont transmis à un logiciel qui construit un modèle 3D de la scène et de la manière dont les objets interagissent. Cette approche nécessite plus de composants construits à la main que de nombreux algorithmes d’apprentissage machine, et Tenenbaum prévient qu’elle est fragile et ne s’adaptera pas bien à l’échelle.

La suite ici (Will Knight)

(Visited 20 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *