Quand les systèmes de vision artificielle font fi de l'ombre

Par 13 septembre 2010
Mots-clés : Smart city, Asie-Pacifique

L'université de Carnegie Mellon propose un système qui décompose chaque élément de l'environnement perçu afin de déduire plus simplement les volumes des bâtiments malgré des contraintes de luminosité.

Comment améliorer les systèmes de vision artificielle tels que ceux dont disposent des robots ou des systèmes de surveillance ? En rendant la machine capable de donner un sens à l'image filmée, estime une équipe de l'université de Carnegie Mellon. Elle travaille sur un dispositif qui permet de comprendre les contraintes physiques et géométriques de la scène filmée. C'est-à-dire qu'elle donne la possibilité de ne pas comprendre seulement les objets présents mais aussi l'espace entre eux. Et de deviner, avec les bons volumes, ce qui pourrait se situer dans des zones d'ombre. Techniquement, le système décompose les différents bâtiments d'une image en blocs géométriques. Mais aussi les éléments extérieurs comme des arbres, ou le ciel.
Décrypter pour modéliser
Le programme alloue alors un poids donné à chacun des blocs, correspondant au type de matériaux repérés par l’ordinateur et supposément utilisés pour la construction des bâtiments (comme par exemple une surface composée de briques). Cela en cherchant dans une base de données des éléments pouvant lui rappeler un matériau plutôt qu'un autre. Une fois les informations rassemblées, l’ordinateur recompose l’image en prenant en compte les facteurs spatiaux, c’est à dire l’écart entre les bâtiments et en affinant le tout selon la luminosité. Si une structure ne semble pas entière, le logiciel va alors déduire qu'une partie est à l'ombre, et la compléter.
Aider un robot à tracer un itinéraire
Le dispositif pourrait aussi permettre de déduire ce qui se passe sur des zones cachées sur la photo par des objets présents au premier plan. "Quand les gens regardent une photo, ils en repèrent les limites, notamment géométriques", explique l’un des membres de l’équipe, Abhinav Gupta. "Sur une photo, il ne sera peut-être pas toujours possible de connaître tous les paramètres de représentation 3D des objets qui la composent, mais au moins peut-on essayer de réduire le champs de l’inconnu". Parmi les applications envisagées, la robotique. : "cela facilitera la tâche pour un robot qui aurait besoin d’analyser une surface pour établir un itinéraire de marche", indique Alexis A. Efros, professeur de robotique à l’université.

Mentions légales © L’Atelier BNP Paribas