Le chemin vers une régulation de l’IA est encore long

Par 15 février 2017
Mots-clés : Prospective, IA, Europe
IA Robot Legal

Plus de 2300 experts en intelligence artificielle, réunis par l’association Future of Life Institute (FLI), ont élaboré 23 principes éthiques encadrant le développement de l’IA. Mais quels apports et quelles orientations concrètes pour les futures innovations ?

Les innovations techniques tendent souvent à dépasser les modèles économiques, sociaux et humains qu’ils dessinent pourtant. Transformer le monde par la technologie appelle alors nécessairement des aménagements éthiques pour pérenniser ces avancées. Depuis quelques années maintenant, le développement exponentiel de l’intelligence artificielle et du Machine Learning, s’accompagne de questionnements quant à la viabilité et à la désirabilité de tels accomplissements. En 1940 déjà, Isaac Asimov prescrivait ses 3 lois de la robotique selon lesquelles : « Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. ». Avec le perfectionnement des technologies de l’IA, de nombreux scientifiques craignent qu’un jour l’intelligence artificielle surpasse, voire remplace l’homme. N’est-ce pas Stephan Hawking lui-même qui confessait à la BBC que « l’intelligence artificielle pourrait mettre fin à l’humanité » ?

Pourtant, la dernière étude Deloitte a montré que les Millenials font majoritairement confiance à l’intelligence artificielle. 62% d’entre eux pensent que l’IA est même un moteur de changement, de progrès et de gain de productivité. Une majorité d’entre eux considèrent en outre que les possibilités offertes par ces nouveaux systèmes peuvent stimuler leur créativité et ouvrir les horizons des futures innovations. Plus spécifiquement, les français apparaissent plus optimistes que leurs confrères européens quant au développement de l’IA et de ses répercussions sur l’économie. Dès lors, il y a fort à parier que face à cet engouement des jeunes, les entreprises vont redoubler d’effort pour accélérer la recherche et développement en la matière. Une course à l’intelligence donc qui doit, au vu des risques majeurs que cela peut poser, être remise en perspective.

Face à un tel défi, l’association Future of Life a organisé un grand colloque pour convenir de l’orientation souhaitable des recherches et des projets liés à l’intelligence artificielle. Il est donc moins question de donner un statut à l’IA que d’en encadrer les pratiques et les orientations dans le concret. L’objectif affiché par la FLI est donc «  d’offrir un cadre pour que l’intelligence artificielle puisse bénéficier au plus grand nombre ».Reste alors à définir les modalités de ce cadre au regard des instances qui les édictent, la valeur juridiquement contraignante ou non de ces accords et les répercutions concrètes de ces principes sur les innovations à venir.

 

 

 

 

L’impulsion collégiale d’experts, d’entrepreneurs et de scientifiques

L’idée d’édicter des règles pour étudier les bénéfices et conséquences dans un futur proche et lointain des activités liées à l’IA n’est pas nouvelle. On se souvient notamment, qu’en septembre dernier, les géants du numérique Google, Facebook, Amazon, Microsoft et IBM ont créé « Partnership on AI », une organisation collaborative entendant diriger les débats éthiques sur l'IA sous couvert de philanthropie. Preuve s’il en fallait que la gouvernance de l’IA est une question fondamentale. Or, si les ambitions affichées de cette entente sont de maîtriser les orientations éthiques et morales des progrès dans le domaine, il s’agit en réalité d’un lobby œuvrant pour la défense de leurs seuls intérêts commerciaux. En déterminant les orientations des développements de l’intelligence artificielle, les partenaires se prémunissent par anticipation de toute critique morale qui pourrait s’ériger à leur encontre.  Et longtemps en effet, les débats sur l’IA se sont vus monopolisés par les géants de la Tech.

Ce qui est inédit, avec ces AI Principles, c’est la forme qu’ont pris les discussions et les acteurs qu’elle a mobilisé. L’initiative provient d’une association,  Future of Life, fondée par le trio Max Tegmark (cosmologiste au MIT), son épouse  Jaan Tallinn (cofondateur de Skype) et Anthony Aguirre (éminent physicien). Sa principale mission est d’orienter les recherches scientifiques et technologiques autour «  de visions optimistes de l’avenir ».  Elle offre donc un cadre de réflexion centré sur l’humain dont le but, in fine, est de rationnaliser et humaniser les innovations technologiques. On comprend, dans ce cadre, tout l’intérêt qu’elle porte aux questions du développement de l’intelligence artificielle. Basée à Boston, l’association travaille en proche collaboration avec des scientifiques, universitaires, philanthropes du monde entier qu’elle réunit par ailleurs fréquemment au cours de conférences, comme précédemment à l’AI Conference de San Juan ou encore plus récemment au EdGlobal X à Boston.

 

Une prise de conscience des leaders de la Tech ?

Que l’on ne s’y trompe pas, la dernière conférence en date,  « Benefial AI 2017», tenue au début du mois dernier à Azilomar en Californie, regroupaient autant de scientifiques et universitaires spécialisés dans la robotique que de leaders de la Tech. Parmi eux, Elon Musk (fondateur de PayPal), Francesca Rossi (chercheuse chez IBM) ou Demis Hassabis (fondateur de DeepMind, vendu à Google). Une ouverture sensée garantir une diversité d’opinions et de perspectives suffisante pour l’élaboration de principes d’intérêts commun. Ainsi, l’élaboration de ces 23 principes s’est fondée à la fois sur des études et documents d’experts existants (les rapports de la Maison Blanche ou de l’université de Stanford notamment) mais aussi sur des propositions de grandes entreprises du secteur et de lobbies influents.

Il ne résulte alors de ces confrontations qu’une simple orientation d’ensemble pour convenir dans quel sens les technologies d’IA devrait se développer dans le futur pour bénéficier au « plus grand nombre ». Il s’agit donc davantage de s’entendre sur un cadre éthique que sur une vraie responsabilisation des décideurs de la Tech. Certains ont parlé de « guide pratique » pour définir la portée de ces principes. Le texte se contente donc de rappeler des règles morales, calquées sur les droits humains, pour mettre l’intelligence artificielle au service de l’intelligence humaine et donc prévenir les dérives possibles du perfectionnement des systèmes d’IA. Aussi, aucun mécanisme pratique de prévention des risques n’est prévu.

 

Des principes non contraignants difficilement applicables en pratique

Ce manque d’ambition normative est par ailleurs le véritable frein du texte. Les principes édictés dans ce corpus ne sont pas contraignants et n’ont donc pas vocation à être vérifiés ni sanctionnées par un juge.  Il s’agit d’avantage d’une impulsion que d’un véritable encadrement des systèmes utilisant l’intelligence artificielle. Aucun organisme politique, local, national ou supranational, n’a d’ailleurs été associé aux travaux, bien qu’eux seuls possèdent le pouvoir de faire exécuter de tels principes. Cela laisse donc la question de la sécurité des systèmes intelligents au point mort, aucune avancée concrète ayant été évoquée Une collaboration avec des instances et des institutions politiques est donc nécessaire pour donner une valeur contraignante à ces principes et ainsi réguler efficacement les développements futurs de l’intelligence artificielle.

Mais la FLI ne compte pas s’arrêter en si bon chemin.  L’association veut ainsi que ces 23 principes soient le fer de lance d’ « un changement majeur  à venir, sur une échelle de temps inconnue, mais sur tous les segments de la société ». Pour ce faire, Future of Life Institute entend ouvrir le débat, en appelant les citoyens à participer. Le temps de la technologie n’est pas celui de l’éthique. Si cette initiative témoigne d’une prise de conscience effective, le chemin vers une régulation des activités liées à l’IA est encore long.

 

 

Mentions légales © L’Atelier BNP Paribas