Le robot apprenant nécessitera-t-il une éthique ?

Par 27 mai 2009
Mots-clés : Smart city

Les continuelles avancées du secteur robotique soulèvent des questions, notamment de responsabilité. Le point avec Jean-Christophe Baillie*, qui interviendra sur le sujet au Forum Science, Recherche et Société en juin.

La multiplication des robots dans la vie quotidienne soulève nécessairement des questions liées à l'éthique. Ce sera d'ailleurs le thème d'une des conférences proposées le 20 juin prochain par le Forum Science, Recherche et Société. Pour Jean-Christophe Baillie, fondateur de l'entreprise Gostai et intervenant à la rencontre, la question est d'autant plus importante à aborder qu'elle est encore mal définie. "Pour comprendre ces problématiques d'éthique, il faut d'abord identifier précisément le terme robot", explique-t-il. Pour certains, ce terme peut recouvrir des objets comme les voitures ou les maisons intelligentes. Mais, pour ce spécialiste de la robotique, dans le cas de l'éthique, cela concerne la machine qui apprend, dont la connaissance et donc le comportement évoluent au contact d'autres éléments : humain, autre robot... De par cet apprentissage, le robot s'éloigne des données intégrées initialement par l'ingénieur qui l'a construit, pour adopter des comportements non prévus.
Une définition du robot
"Il s'agit d'une catégorie d'objets nouveaux, de nature différente de l'électronique grand public" précise-t-il. La question de l'éthique appliquée aux robots se décompose donc en deux parties : "d'une part l'éthique humaine, liée à ce que le constructeur, l'ingénieur et l'utilisateur veulent en faire, à l'instar de n'importe quel objet". Et d'autre part l'éthique du robot en lui-même, soit le choix qu'il effectue avant d'agir, et donc la décision qu'il prend, lorsqu'il est capable d'en prendre. "Mais aujourd'hui, et pour encore quelques années, seule l'éthique humaine est d'actualité : nous ne savons pas encore créer de robots capables d'apprendre de manière générale" continue le fondateur de Gostai. "Nous ne parvenons à le faire que sur des tâches simples." Se pose alors, pour l'avenir, la question de la responsabilité. Si un robot apprenant provoque un dommage, qui en sera responsable ? Tant que le robot reste une machine exécutive, la problématique reste classique.
Ethique humaine et éthique robotique
Comme lors d'un accident automobile, le constructeur n'est pas responsable de ce que le conducteur fait de son véhicule. Mais si le robot est capable d'apprendre, "il s'agit d'une question qui s'apparente davantage à une problématique d'éducation, à l'instar de la responsabilité de parents en cas de délit de leur enfant". Et Jean-Christophe Baillie d'évoquer le domaine de la robotique développementale, qui prend pour modèle l'évolution d'un enfant. "Ce qui est intéressant, c'est que les chercheurs de cette branche abordent le problème de l'apprentissage d'actions et de représentations du monde". Et Jean-Christophe Baillie de terminer : "il est difficile de discuter de ce qui n'existe pas encore. Dans une vingtaine d'années, l'humain sera peut-être augmenté et intègrera directement de la robotique dans le corps. Dans ce cas, il ne serait plus pertinent d'opposer humain et robot, et les débats sur l'éthiques deviendraient plus compliqués". 
* fondateur de la société Gostai spécialisée dans l'intelligence artificielle orientée robotique.

Mentions légales © L’Atelier BNP Paribas