Un moteur de recherche musical identifie tout type de similarité

Par 14 août 2008

mHashup, créé par une équipe de l'Université de Londres, retrouve des morceaux qui contiennent des extraits similaires à ceux qui lui sont proposés. Ce, en analysant chaque dixième de seconde de musique.

Une base de données musicale contient généralement une très grande quantité d'informations. Les outils disponibles aujourd’hui permettent de localiser facilement des morceaux lorsque l’on est en possession de données relativement précises. Les autres ont de fortes chances de rester en dehors du champ de vision de l’utilisateur. Le moteur de recherche mHashup, présenté cette semaine au Siggraph, vise à changer cet état de fait. On lui soumet une requête sous la forme d’un extrait musical. Il identifie les morceaux comportant des extraits similaires, indépendamment des méta-données qui leur sont classiquement associées telles que le nom de l’artiste, du morceau, de l’album ou du label. mHashup se base uniquement sur une analyse avancée de la piste audio. Un court extrait suffit. Outre donner l’occasion aux morceaux peu connus de remonter à la surface, mHashup est susceptible de faciliter grandement le travail des musicologues ou le suivi du respect des copyrights.
Différentes versions du même morceau, le même style de musique
Les doublons apparaissent sans équivoque en tête de la liste de résultats. Mais la similarité n’a pas besoin d’être très forte pour que mHashup identifie un morceau comme un résultat positif. "Il peut s’agir d’une version live, du même morceau joué par un autre artiste, d’une version dans une autre langue, à un autre tempo, dans une autre tonalité, ou encore d’une version instrumentale", explique Michela Magas, des Goldsmiths Digital Studios de l’Université de Londres, qui a conçu l’interface utilisateur. Plus loin dans la liste de résultat, on pourra trouver des morceaux du même style, avec le même type de rythme par exemple. Il est possible de sélectionner un résultat comme requête d’une nouvelle recherche et avancer ainsi dans un univers de proximité musicale. Dans cette optique, les listes de résultats sont mémorisées pour permettre à l’utilisateur de revenir en arrière et de lancer une nouvelle recherche à partir d’un autre résultat.
Des résultats très visuels
Les résultats sont affichés de manière très visuelle. Les morceaux apparaissent sous la forme de lignes horizontales grises qui représentent le temps, l’emplacement de l’extrait correspondant à la requête étant surligné en couleur. Plus la ligne d’un résultat est foncée et opaque, plus la similarité est forte. Elle s’éclaircit et devient transparente lorsque les résultats sont plus éloignés. A titre d’exemple, dans le cas d’un résultat en gris très foncé, l’oreille humaine n’entend pas la différence avec l’extrait recherché. Le cœur de mHashup est basé sur AudioDB, un système de gestion de base de données open-source optimisé pour l’extraction de données multimédia basée sur le contenu. Toutes les caractéristiques résultant de l’analyse d’un morceau, qui est examiné par tranches d’un dixième de seconde, sont stockées au travers de vecteurs dans un espace multidimensionnel. La notion mathématique de distance Euclidienne est utilisée pour identifier les morceaux similaires. Le moteur de mHashup a été compilé par le Professeur Michael Casey des Goldsmiths Digital Studios, par ailleurs auteur de la norme de description de contenu multimedia MPEG-7, qui vise à faciliter le travail des moteurs de recherche.
Annabelle Bouard, envoyé spécial de L'Atelier à Los Angeles

Mentions légales © L’Atelier BNP Paribas