Le deep learning permettrait d’extraire encore plus de données des smartphones

Par 11 février 2015 1 commentaire
deep learning

Un logiciel basé sur le “deep learning” intégré dans les smartphones pourrait s’avérer être un outil efficace pour toutes les applications destinées à récupérer des données physiques sur les utilisateurs.

Le « deep learning » désigne la discipline visant à simuler le fonctionnement neuronal d’un cerveau humain à l’aide d’ordinateurs. Le MIT l’a d’ailleurs classée comme une des plus grandes avancées technologiques en 2013. Les grands acteurs technologiques se concentrent de plus en plus dans ce domaine ; à l’image de Google qui s’est offert l’entreprise spécialisée dans le « deep learning » DeepMind il y a un an, et Facebook possède son AI Lab (dirigé par le français Yann LeCun) dédié à la recherche sur l’intelligence artificielle. Les avancées sont notables, notamment en ce qui concerne l’intégration aux smartphones : la reconnaissance d’images permet par exemple de détecter la présence de l’utilisateur à un match de foot et de prendre la photo d’une action décisive au bon moment, sans que l’utilisateur ait besoin de s’en préoccuper. Les chercheurs sont maintenant en mesure de proposer de nouvelles applications plutôt destinées à capter des données sur l’utilisateur. 

La puissance du smartphone est suffisante

Si le « deep learning » a permis des avancées significatives dans la reconnaissance d’images et de vidéos, ainsi que dans l’analyse du son, ces algorithmes nécessitent généralement beaucoup de puissance informatique tant les calculs informatiques sont importants. C’est le cas par exemple de Google et de son algorithme capable de traduire les images en mots grâce au machine-learning.

Mais à l’heure actuelle, les smartphones peuvent déjà faire usage du deep learning grâce à la communication à distance avec des serveurs; à condition d’avoir une connexion Internet très fiable. Le processus est également relativement lent. Nic Lane, ingénieur chez Bell Labs, affirme que cela pourrait considérablement améliorer la performance de certaines applications qui captent des données. Par exemple, intégrer le deep learning au smartphone permettrait d’isoler le « bruit » d’un enregistrement audio et de le filtrer. Lane a d’ailleurs développé un algorithme de deep learning qui fonctionnait parfaitement pour les smartphones comportant Android. 

Les chercheurs se concentrent aujourd’hui sur des prototypes algorithmiques qui pourraient permettre d’améliorer la capacité qu’un smartphone a à détecter les mouvements d’une personne et renseigner sur l’activité précise de celle-ci : brossage de dents,  manger,… en récoltant simplement les données issues de l’accéléromètre de l’appareil. Plus impressionnant encore, Lane et son équipe testent des algorithmes capables de déceler l’émotion et l’identité de l’utilisateur grâce à l’étude du son de sa voix. Et les résultats sont là : l’algorithme est 10% plus efficace que toutes les méthodes existantes aujourd’hui, que ce soit pour la reconnaissance de mouvements ou de son. 

 

Haut de page

1 Commentaire

A ce titre, j'aimerais soulever que certaines de ces éléments sont accessibles à tous en ce moment sur l'environnement d'IBM: bluemix.net.

Il existe des outils pour faire du speech-to-text, reconnaitre la personnalité de l'interlocuteur, reconnaitre des images, faire du text-to-speech, vérifier si le niveau ou style du langage est bien adapté à l'audience...

Je suis IBMer et ceci exprime uniquement mes propres pensées.

Soumis par Michel Van der ... - le 12 février 2015 à 11h17

Mentions légales © L’Atelier BNP Paribas