L'apprentissage des robots sort des règles établies

Par 27 mars 2008
Mots-clés : Smart city, Europe

La théorie du contrôle apporte de nouvelles perspectives à l'intelligence artificielle. Notamment en développant le concept de curiosité chez le robot.

Les robots intelligents s'inspirent des schémas de fonctionnement du cerveau humain. Et quand les théories de la neuroscience - ici, le connexionisme est remis en cause - évoluent, la robotique aussi. Cette théorie repose sur l'idée que l'intelligence n'est pas un processus linéaire, mais consiste en un ensemble de petits processus simples reliés entre eux : pour simplifier c'est la connexion entre les neurones qui serait à la base de l'intelligence. Notre cerveau créerait cette architecture au fur et à mesure de l'apprentissage. C'est ici qu'intervient la théorie du contrôle, soutenue par Asim Roy : il y aurait d'autres parties du cerveau, des contrôleurs, qui régiraient ce réseau de neurones. C'est le concept défendu dans la publication de "Connectionism, Controllers and a Brain Theory" par ce professeur à la W. P. Carey School of Business. " Selon la théorie du contrôle, si j'apprends à jouer aux échecs, une partie de mon cerveau m'y aide", explique à L'Atelier Axel Buendia, docteur en Intelligence Artificielle et dirigeant de la société Spirops.
De la prédiction à l'induction
" En parallèle  des contrôleurs vont stimuler une nouvelle partie afin de faciliter mon apprentissage." Ce concept de contrôleurs sous-entend donc que plutôt que de stocker un nombre presque infini de règles, le cerveau enregistre quelques données, et, selon la façon dont elles sont connectées entre elles, bâti alors des solutions. Prenons l'exemple du tennis : pour apprendre à jouer, selon la théorie connexionniste, l'individu devrait d'abord apprendre à tenir une raquette, à appréhender la vitesse de la balle, etc. Si un de ces paramètres change, une somme indénombrable de nouvelles règles devrait alors être assimilée par le cerveau. La théorie du contrôle défend une idée différente : le cerveau humain apprendrait à partir de données générées par la pratique puis connecterait entre elles les expériences vécues. "Ce n'est plus de la prédiction, notion à la base de l'intelligence artificielle, mais de l'induction" commente Axel Buendia.
Une application en robotique : la curiosité
Car la prédiction n'est pas suffisante pour créer de l'intelligence. "On a besoin de passer l'étape au dessus : choisir de manière active quoi apprendre," indique le docteur en IA Frédéric Kaplan, chercheur à l'EPFL (*). "S'il est nécessaire d'avoir un système d'apprentissage pour élaborer un robot intelligent, on a aussi besoin d'une architecture qui va contrôler ce dernier - les contrôleurs -  pour lui permettre de savoir comment et quoi apprendre". Comment la machine peut-elle décider ce qu'elle doit apprendre? Le chercheur, en collaboration avec Pierre-Yves Oudeyer et dans le cadre de ses travaux sur AIBO au Sony Computer Science Laboratory, a démontré que le robot pouvait devenir curieux. Ce dernier est doté d'un système de "motivation intrinsèque" qui le pousse à choisir lui-même ce qu'il explore et à privilégier les situations d'apprentissage où le progrès est optimal. En bref, une sorte de mémoire qui lui rappelle ce qu'il sait déjà faire et qui lui permet de maîtriser des tâches de complexité croissante.
(*)Ecole Polytechnique Fédérale de Lausanne

Mentions légales © L’Atelier BNP Paribas