Quand les robots apprennent à mentir

Par 10 septembre 2010 1 commentaire

Le Georgia Institute travaille sur des androïdes capables de tromper un interlocuteur. Le but : lui permettre d'être plus réactif et de réagir à des situations d'urgence.

L'autonomie des machines robotisées passe aussi par leur capacité à savoir mentir, juge une équipe du Georgia Institute of Technology. Qui a mis au point un robot capable de tromper son interlocuteur, homme ou robot. Pourquoi ? Notamment pour mieux interagir avec son environnement. "Les machines qui reconnaissent la nécessité épisodique du mensonge ont de réels avantages en terme de réactivité par rapport à ceux qui ne l'ont pas", note Alan Wagner, l'un des responsables du projet. Un tel comportement vise aussi à permettre aux robots utilisés de gérer les catastrophes de calmer une situation lors d'une urgence ou recevoir la collaboration de personnes paniquées en les rassurant par des faits dont ils n'ont pas de certitude.
Dissimuler des informations précieuses
Ou encore, dans le secteur militaire, d'être apte à se protéger eux-mêmes et les éventuelles informations qu'ils détiennent. Pour ce faire, les chercheurs ont développé des algorithmes permettant à un androïde de déterminer s'il doit ou non mentir ou tricher face un individu ou une autre machine. Techniquement, le robot a d'abord dû apprendre à reconnaître une situation qui nécessite un mensonge. Des situations auxquelles s'appliquent deux règles : "il doit y avoir un conflit entre le robot et son interlocuteur et seul l'interlocuteur en question doit faire les frais d'un mensonge", expliquent les chercheurs. Pour tester leur algorithme, les scientifiques ont chargé à vingt reprises deux robots d'induire en erreur des androïdes classiques qui les cherchaient dans un secteur limité à trois chemins.
Des directives d'utilisation pour éviter les dérives
Pour déterminer leur tactique de tromperie, des bornes colorées ont été positionnées le long de chaque trajectoire. Le robot devait d'abord choisir une trajectoire, puis, quand il rencontrait un marqueur, devait le renverser puis faire demi-tour et choisir un autre itinéraire. Cela sans le signifier à l'autre machine. Résultat : les robots ont dans 75 % des cas réussi à induire le dit "adversaire" en erreur quant à son emplacement. "Les expériences ratées n'étant dues qu'à des facteurs externes liés à l'environnement dans lequel se trouvaient les robots", soulignent les chercheurs. Le projet vient d'être présenté à l'International Journal of Social Robotics.

Haut de page

1 Commentaire

Merci beaucoup pour cet article au contenu riche et interessant. J'ajoute ce site à mes favoris sur le champs

Soumis par Objectif photo (non vérifié) - le 11 septembre 2010 à 21h08

Mentions légales © L’Atelier BNP Paribas