Connecter l’IA avec les sens comme la vision et le toucher

Image parsuju de Pixabay

Si le sens du toucher est un canal privilégié pour ressentir le monde physique, nos yeux nous aident à appréhender immédiatement dans sa globalité l’image renvoyées par ces signaux tactiles. Les robots qui ont été programmés pour voir ou sentir ne peuvent pas utiliser ces signaux de manière aussi interchangeable. Pour combler cette lacune sensorielle, les chercheurs du Laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) ont mis au point une intelligence artificielle prédictive (IA) qui apprend à “voir” en touchant et à sentir en voyant. Le système de l’équipe peut créer des signaux tactiles réalistes à partir d’entrées visuelles et prédire quel objet et quelle partie sont touchés directement par ces entrées tactiles. Ils ont utilisé un bras de robot KUKA et un capteur tactile spécial appelé GelSight, conçu par un autre groupe du MIT.

L’ensemble de données actuellement utilisé ne contient que des exemples d’interactions dans un environnement contrôlé. L’équipe espère améliorer le système en recueillant des données dans davantage de domaines non structurées ou en utilisant un nouveau gant tactile conçu par le MIT, afin d’augmenter la taille et la diversité de l’ensemble de données.

La suite ici (Rachel Gordon)

(Visited 42 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :