Comment les dernières prouesses de DeepMind font des machines qui “pensent” plus comme nous

 

Le manque de données d’entraînement est souvent le talon d’Achille du développement de nouvelles applications pour l’apprentissage en profondeur. Et si ces dernières dépendaient moins des données ? Et s’il y avait un moyen pour que les machines apprennent aussi rapidement et avec autant de souplesse que les humains ? Un nouveau né comprend ce qu’est une pizza à partir de seulement quelques exemples, même si les garnitures sont très différentes. Les réseaux neuronaux profonds à la pointe de la technologie n’y parviennent pas. Dans un numéro récent de Science, DeepMind a dévoilé un nouvel algorithme qui constitue le franchissement des premières étapes du transfert de l’apprentissage. Lorsqu’on lui montre une série d’images 2D issues d’une caméra, l’algorithme est capable de comprendre l’environnement 3D et ce prédire de nouvelles vues de la scène ; même celles qu’il n’avait jamais rencontrées auparavant. Le réseau neuronal profond, appelé le Generative Query Network (GQN), pourrait analyser des vues 2D via une caméra simulée pour contrôler un bras robotique numérique et naviguer dans un environnement 3D, ce qui pourrait déboucher sur des applications potentielles en robotique. Plus encore, lorsque les chercheurs ont jeté un coup d’œil dans son “cerveau” d’IA, ils ont découvert que le réseau avait capturé l'”essence” de chaque scène 3D, en appréhendant tous les aspects significatifs de la scène tels que le type ou la couleur d’un objet.

La suite ici (Shely Fan)

(Visited 59 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :