Production year
2017
© Cyril FRESILLON / GIPSA-lab / CNRS Images
20170135_0035
Capteurs de mouvements labiaux autour de la bouche d'un chercheur. Ces capteurs, associés à un casque de réalité virtuelle doté de capteurs du regard et de mouvements de la tête, à un microphone, mais aussi à des caméras dédiées à la capture de mouvement vont permettre au robot Nina de reproduire en temps réel tous les gestes, expressions faciales et mots prononcés par le chercheur. Ce dernier voit en stéréo à travers les yeux du robot, équipés de caméras et entend en stéréo grâce aux microphones dans les oreilles de Nina. En plus de sa possible utilisation en télé-présence immersive, cette phase de pilotage, répétée un grand nombre de fois, permet au robot d'enregistrer les mouvements subtils de l’interaction face-à-face (contact visuel, synchronisation regard/parole, points d’intérêt, tours de parole, lecture labiale…) en vue de les imiter de manière autonome par la suite. Cet apprentissage s'effectue via des algorithmes de deap learning. Nina pourra ensuite interagir de manière naturelle et socialement acceptable. Ceci lui permettra par exemple de participer à des campagnes de dépistage de problèmes de mémoire (maladie d'Alzheimer, début de démence…) en faisant passer des tests de mémoire.
The use of media visible on the CNRS Images Platform can be granted on request. Any reproduction or representation is forbidden without prior authorization from CNRS Images (except for resources under Creative Commons license).
No modification of an image may be made without the prior consent of CNRS Images.
No use of an image for advertising purposes or distribution to a third party may be made without the prior agreement of CNRS Images.
For more information, please consult our general conditions
2017
Our work is guided by the way scientists question the world around them and we translate their research into images to help people to understand the world better and to awaken their curiosity and wonderment.