Comment développer une IA inoffensive pour l’homme ?

Par 27 janvier 2017
Mots-clés : Prospective, IA, Europe
IA and Ethics

Les récents progrès de l’intelligence artificielle et la place croissante qu’elle occupe dans notre existence suscitent un enthousiasme teinté d’appréhensions. De nombreux spécialistes de cette technologie s’efforcent de l’orienter dans une direction positive pour l’humanité.

Qui a peur de l'intelligence artificielle ? À vrai dire, beaucoup de monde. Un exemple parmi d’autres ? D’après un récent sondage de la Bristish Science Association, un tiers des répondants pense que l’intelligence artificielle constitue une menace existentielle pour l’humanité. 60% d’entre eux craignent également un impact négatif sur l’emploi. Difficile de les blâmer, le traitement du sujet étant souvent anxiogène. Les articles annonçant la mise au chômage imminente d’une partie de la population par les progrès de l’intelligence artificielle sont légion.

Quant à la crainte que l’intelligence artificielle ne surpasse le cerveau humain, avec des conséquences potentiellement désastreuses pour l’humanité, elle est exprimée par de nombreux entrepreneurs et scientifiques de renom. « Le développement de l’intelligence artificielle pourrait sonner le glas de l’humanité. » affirmait ainsi le physicien et cosmologiste Stephan Hawking en 2014. L’an passé, Bill Gates exprimait une inquiétude similaire : « Je fais partie de ceux que la superintelligence inquiète. D’abord, les machines feront de nombreuses tâches à notre place, sans être superintelligentes. Ce sera positif si on le gère bien. Quelques décennies après ça, l’intelligence sera suffisamment développée pour devenir un problème. Je suis d’accord avec Elon Musk et quelques autres sur ce sujet, et ne comprends pas pourquoi certains ne s’inquiètent pas. » Que dit Elon Musk sur la question ? « Nous devrions être très prudents avec l’intelligence artificielle. Si je devais nommer notre plus grande menace existentielle, ce serait probablement ça… »

Elon.jpg

Des risques déjà présents

En parallèle de ces déclarations apocalyptiques, l’intelligence artificielle accomplit régulièrement de nouvelles prouesses, au point qu’elle semble inarrêtable. En une dizaine d’années, elle s’est montrée capable de battre les humains aux échecs, au jeu télévisé Jeopardy!, au jeu de go et, très récemment, au poker. En outre, elle occupe une place de plus en plus importante dans nos existences, alors que les assistants virtuels, de Siri à Cortana, se démocratisent et deviennent de plus en plus performants, que les robots humanoïdes semblent en passe de rattraper les canons de la science-fiction et que les voitures autonomes se profilent à l’horizon.

Davantage qu’un hypothétique risque pour la survie de l’humanité, dans un futur plus ou moins lointain, certains soulignent les enjeux que la prégnance croissante de l’intelligence artificielle suscite dès aujourd’hui. C’est le cas d’Andra Keay, directrice de la Silicon Valley Robotics. « Le développement de robots ressemblant aux humains et se conduisant comme eux va rapidement poser le problème de l’usurpation d’identité. Que va-t-il se produire si chacun peut construire un robot à votre image et le faire se conduire comme il le souhaite ? En outre, plus les robots ressemblent aux humains, plus nous leur faisons confiance. Pourtant, nous ne savons pas qui se trouve derrière un robot. Souvent, il s’agit de grandes entreprises qui n’agissent pas que dans un but philanthropique. » s’inquiète-t-elle.

AI.jpg

Permettre aux machines de rendre compte de leurs actes

Beaucoup ont ainsi le sentiment que se déroule actuellement une course à l’intelligence artificielle, chacun s’efforçant de construire le logiciel le plus perfectionné possible, sans bien prendre le temps d’en mesurer les conséquences. Et si une étape de réflexion s’imposait ? C’est ce que propose l’organisation à but non lucratif OpenAI, fondée par Elon Musk et Sam Altman, qui compte également Peter Thiel parmi ses contributeurs. Elle se fixe pour mission d’orienter l’intelligence artificielle dans une direction bénéficiant à l’ensemble de l’humanité. L’organisation procède notamment en rendant ses brevets et recherches accessibles à tout le monde.

En France, Grégory Bonnet, enseignant-chercheur à l’université de Caen, dirige un groupe de recherche composé de scientifiques et de philosophes et sociologues, spécialisé dans l’éthique de l’intelligence artificielle. Leur objectif est moins de créer une intelligence artificielle morale que de permettre aux machines de justifier leurs actions a posteriori. « Les philosophes et sociologues avec qui nous travaillons ne cessent de nous répéter que la question de l’éthique est toujours liée à un contexte particulier. Ainsi, définir de grandes règles morales universalisables, fonctionnant dans n’importe quel contexte, leur paraît très compliqué. Si l’on cherche à définir des règles éthiques pour les voitures autonomes, par exemple, les choses sont complètement différentes selon que l’on se place en Inde ou en France, la conduite obéissant à des règles très différentes dans les deux pays. C’est pourquoi nous préférons ne pas édicter de grands principes généraux. En revanche, nous souhaitons qu’un agent autonome soit toujours capable de rendre compte de ses décisions, soit capable de dire “j’ai agi ainsi en vertu de tel principe moral”, ou “parce que toute autre décision aurait entraîné telle conséquence”, etc. » L’angle choisi par l’équipe de Grégory Bonnet est donc très pragmatique : il s’agit de rendre les machines responsables de leurs actes, afin de pouvoir expliquer leurs actions et corriger leurs algorithmes lorsqu’elles ne se conduisent pas comme prévu.

Encadrer la création des robots

D’autres souhaitent la mise en place d’une conception éthique, encadrant la création des robots, pour s’assurer de leur caractère moral. L’avocat Alain Bensoussan, spécialisé dans le droit des technologies numériques, participe ainsi à la création d’un comité d’éthique consacré à l’intelligence artificielle. L’objectif : établir des règles, des principes auxquels les constructeurs devraient se conformer. « À mon sens, les robots doivent par défaut être bienveillants. On ne doit bien sûr pas concevoir de robots capables de se montrer violent envers les humains, suivant le principe d’une des lois d’Asimov. Il faut également définir des règles simples et transparentes, variables pour chaque type de robots, quant à la manière dont ils doivent se comporter dans telles circonstances. Assurer une conception éthique, c’est aussi rendre les algorithmes transparents, pouvoir les contrôler, avoir une traçabilité. Les robots létaux doivent être interdits. Enfin, les robots doivent être sincères, honnêtes, ne doivent pas tromper leur interlocuteur. » explique Alain Bensoussan. De quoi rendre l’intelligence artificielle plus rassurante.

Mentions légales © L’Atelier BNP Paribas