Le langage corporel en dit beaucoup. Malgré les progrès réalisés par les technologies de vision par ordinateur et de reconnaissance faciale, les robots ont du mal à identifier un mouvement corporel subtil. Ils peuvent donc manquer des indices comportementaux importants dans leurs interactions avec l’humain. Les chercheurs de l’Université Carnegie Mellon ont développé un système de « tracking » du corps qui pourrait changer la donne.
Appelé OpenPose, le système peut suivre en temps réel les mouvements corporels, y compris ceux des mains et du visage. Il exploite la vision par ordinateur et l’apprentissage machine pour traiter les cadres vidéo, et peut même observer simultanément plusieurs personnes. Ce système pourrait faciliter les interactions homme-robot et optimiser l’interactivité de la réalité virtuelle et la réalité augmentée. Le plus remarquable, c’est qu’OpenPose peut suivre non seulement la tête, le torse et les membres d’une personne, mais aussi individuellement chaque doigt.