Les traits de l'avatar varient en fonction de ses émotions

Par 05 décembre 2008
Mots-clés : Smart city

L'UIB développe un modèle informatique qui détermine automatiquement les variations du visage d'une personne en fonction des sentiments qu'elle éprouve. Puis est capable de les reproduire dans la réalité virtuelle.

Reproduire en 3D les diverses expressions de n'importe quel visage en fonction de toute la palette d'émotions qu'il peut exprimer. Cela a jusqu'à présent plutôt relevé du tâtonnement empirique que d'une règle générale facile à appliquer. Voilà qui pourrait changer grâce au modèle informatique développé par une équipe de chercheurs de l'université des îles Baléares (UIB). Ces derniers ont en effet réussi à déterminer mathématiquement quels points du visage d'une personne varient et comment, lorsque celle-ci éprouve une émotion. Ils ont ainsi produit un algorithme qui peut être utilisé pour reproduire la plupart des expressions faciales dans le virtuel de manière à la fois simple et rapide. On imagine les applications rendues possibles par cette invention. Laquelle permettra par exemple de faire instantanément varier l'expression de son avatar en fonction de son humeur.
Emotions, états émotionnels et personnalité
Pour mettre au point leur système, les chercheurs se sont inspirés des théories du psychologue Albert Mehrabian sur l'importance des messages non-verbaux. Ils ont distingué les émotions proprement dites des états émotionnels et de la personnalité. "Une émotion comme la peur, la joie ou la surprise se traduit instantanément par une altération du visage, tandis qu'un état émotionnel comme l'ennui ou l'anxiété durent plus longtemps. La personnalité quant à elle peut durer toute la vie", souligne Diana Arellano, l'une des membres de l'équipe. C'est en formalisant ce type de classifications qu'elle et son équipe ont trouvé le moyen d'automatiser la création de traits exprimant des émotions de base (colère, dégoût, peur, joie, tristesse, surprise etc.) et des situations intermédiaires.
Modélisation d'autres paramètres physiques
La méthode a été testée à la fois par une machine entraînée à reconnaître des expressions ainsi que de vraies personnes. Les résultats sont à peu près identiques puisque dans les deux cas environ 80 % des expressions générées ont été reconnues. Les chercheurs de l'UIB ne comptent cependant pas s'en arrêter là. Ils soulignent notamment que certaines émotions, telles que la surprise et la peur, peuvent être difficiles à distinguer et qu'il est donc nécessaire d'y ajouter d'autres éléments. L'idéal serait donc de réussir à modéliser de la même sorte d'autres facteurs physiques qui contribuent à exprimer nos émotions : les gestes, les mouvements de la tête, l'intonation de voix, le regard etc. En attendant, les chercheurs travaillent à la conception d'un narrateur virtuel dont le visage changerait en fonction de l'histoire qu'il raconte.

Mentions légales © L’Atelier BNP Paribas