"On ne créera pas de lien social avec un robot froid", explique Gérard Bailly, directeur de ce laboratoire grenoblois Images Parole Signal Automatique (GIPSA-lab) et responsable du projet Nina. A priori, ce petit robot (1,02 m) d'allure sympathique pourrait ne pas être perçu comme tel. En effet, lorsqu'il interagit avec son interlocuteur, Nina est en réalité piloté par un ingénieur équipé d'un casque de réalité virtuelle qui entend et voit comme s'il était le robot ; les yeux sont en fait des caméras et des micros sont placés dans les oreilles. Les expressions de l'ingénieur aux commandes (clignements des yeux, mouvements du regard...) et ses paroles sont reproduites par le robot. Ce qui pourrait ressembler à une simple commande à distance est en fait plus complexe qu'il n'y paraît et s'apparente à une phase d'apprentissage : grâce au deep-learning, le robot apprend de ces échanges répétitifs.
À terme, Nina pourrait ainsi, par exemple, intervenir auprès de patients en s'exprimant de façon avenante et naturelle et en faisant passer un message non seulement par la voix, mais aussi "naturellement" par le regard. Il est envisagé de le faire intervenir dans le dépistage de la maladie d'Alzheimer, sans le substituer à un médecin, ou dans les robots de téléprésence, comme ceux que l'on peut voir dans certains centres d'accueil. En attendant, Nina continue inlassablement d'apprendre avec les chercheurs et envisage déjà d'enrichir ses modes d'expressions grâce à des mouvements de sourcils.
Lire la suite : Nina, le robot qui s'exprime aussi avec les yeux