Le réalisme des vêtements virtuels favorise la crédibilité de l'avatar

Par 25 octobre 2010
Mots-clés : Smart city, Europe
Deux femmes avatars

Reproduire le mouvement des habits tel qu'il se produit lorsqu'une personne est en mouvement rapproche les personnages virtuels de la réalité. Ce qui facilite la collaboration dans des univers pervasifs.

Pour augmenter le réalisme des avatars, la première chose est de s'intéresser à ce qu'ils portent, précise une équipe de l'institut Max Planck de l'université de Saarbrücken. Non pas tant au niveau esthétique qu'à celui de la vraisemblance. Dans ce but, les chercheurs souhaitent reproduire les ondulations des vêtements qui se produisent lorsqu'un individu se déplace. Pourquoi ? Parce que cela ajoute à la crédibilité de l'avatar. Ce qui à terme facilite les échanges au sein d'univers pervasifs. Notamment dans le cadre professionnel. Ils ont du coup mis au point un logiciel qui reproduit les mouvements des habits portés par une personne sur son double virtuellement animé.

Découper par séquences puis reconstituer

L'algorithme développé reconstruit - sans l'utilisation de marqueurs optiques - le mouvement de ce que porte l'individu. Cela en plusieurs étapes : les chercheurs ont d'abord numérisé en trois dimensions la silhouette d'un acteur en tenue. Ils l'ont ensuite filmé se déplacer, puis ont scindé chaque pas en une image. L'étape d'après a consisté à comparer chaque cliché avec l'initial, afin d'identifier quelles sont les principales modifications apportées aux vêtements lorsque celui qui les porte est en mouvements. Pour affiner ces ondulations, les chercheurs ont simultanément réalisé un squelette virtuel de l'individu afin de calculer la manière dont il se déplace sous ses vêtements.

Des données transposées sur une silhouette virtuelle

Cela permettant de calculer ensuite avec précision les changements subis par les habits lorsqu'ils entrent en contact avec le corps. Une fois repérés, le logiciel effectue sur chaque zone du tissu une série de simulations. Le tout en s'appuyant sur l'aspect géométrique des surfaces du corps. Pour tester leur système, les scientifiques ont alors appliqué ces données sur une silhouette virtuelle et habillée, afin de modifier l'apparence de ce qu'elle porte en fonction de ses gestes. Cela, expliquent-ils, avec succès. Leur travail sera dévoilé en décembre lors de la conférence Siggraph Asia de Séoul.

Mentions légales © L’Atelier BNP Paribas