Le moteur de recherche puise dans l'origine de la vidéo

Par 13 juin 2008

Une cinquantaine d'équipes originaires des quatre coins du globe entrent en compétition pour la conception d'outils de recherche capables de scruter le contenu de fichiers multimédia.

Les outils de recherche traditionnels sont mal adaptés aux contenus multimédia qui prolifèrent sur le Web. Partant de ce constat, l’A*Star, Agence pour la Science, la Technologie et la Recherche qui soutient les travaux de R&D du secteur public à Singapour, a lancé un challenge relevé par cinquante six équipes de dix-sept pays : développer les technologies de recherche de prochaine génération. Celles-ci ne devraient plus être basées sur du texte. Elles examineront directement le contenu audio et vidéo plutôt que de s’appuyer sur les métadonnées (descriptions générées par l’auteur du fichier). L'A*Star avance qu'ainsi, la façon dont les utilisateurs interagissent avec les données multimédia s’en trouvera changée. Pour aider au développement de nouvelles techniques, l'agence a mis à disposition des participants du contenu réel comme des documentaires télévisés, des publicités et des actualités.
Des technologies de recherche déjà là
Il ne s’agit pas d’un terrain vierge, même s’il reste beaucoup à accomplir. Le secteur de la défense utilise déjà beaucoup la reconnaissance d’images, tandis que la reconnaissance vocale est très développée dans certains secteurs. "Ces systèmes fonctionnent bien car le nombre d’options, ou de choses à reconnaître, est réduit", explique Suranga Chandratillake, PDG de Blinkx. "Mais avec les vidéos grand public l’univers des possibilités est bien plus large, donc le problème bien plus complexe". Blinkx fait déjà une analyse à haut niveau du contenu audio et vidéo. La société examine la quantité de voix dans la bande sonet réalise une analyse vocale si la qualité le permet. Dans certains cas, par exemple lorsqu’il s’agit de nouvelles ou de sport, elle analyse également l’image vidéo pour lire le texte qui apparaît à l’écran. "Nous allons aller vers davantage d’analyse visuelle. Nous nous essayons par exemple à la reconnaissance de visages", anticipe Suranga Chandratillake.
Beaucoup de la place pour l'innovation fonctionnelle
"On peut s’attendre à pouvoir, d’ici cinq ans, dire qui apparaît dans une vidéo". Les futurs outils de recherche devraient permettre aux utilisateurs de se positionner directement à l’endroit qui les intéresse dans une vidéo ou un fichier son, comme lorsqu’on se positionne dans un texte en cherchant un mot au lieu de tout lire pour y arriver. Dans l’idéal, d’après l’A*STAR, l’utilisateur pourrait dicter sa requête, ou fournir une image ou un extrait de vidéo, selon la nature de la recherche. "Les requêtes sous la forme de films existent déjà", note Suranga Chandratillake. "Nous en utilisons par exemple pour identifier les vidéos dupliquées qui ont des descriptions et bandes son différentes". La façon dont les résultats sont présentés a aussi son importance. "De nombreuses personnes sont capables de sélectionner des vidéos rapidement si elles les visionnent. On verra apparaître d’autres améliorations de ce type au niveau de l’interface utilisateur", prévoit  Suranga Chandratillake.

Mentions légales © L’Atelier BNP Paribas