Intelligence artificielle : les machines doivent-elles désapprendre ?

Par 24 juin 2016
Machine Unlearning

Si demain la machine learning pourrait être au coeur de très nombreux domaines, la nécessité pour l'ordinateur de désapprendre peut être vitale concernant la sécurité des données.

L’explosion quantitative de la donnée numérique avec l’essor d’Internet et des capteurs distribués est un vecteur majeur d’opportunités d’affaires pour les entreprises. Dans ce nouveau contexte, les progrès du “machine learning” font couler beaucoup d’encre.

Cette expression de plus en utilisée désigne des familles d’algorithmes qui permettent aux systèmes assistés par ordinateur d’accumuler de la connaissance et de l’intelligence sans être explicitement programmé en ce sens. Les méthodes de machine learning ont des applications dans de très nombreux domaines : des secteurs productifs (optimisation de procédés) aux domaines financiers (gestion du risque), dans le luxe comme dans l’Internet (marketing stratégique), dans la défense (analyse situationnelle) ou encore le biomédical (typologies de patients).

Retrouvez notre article sur l'intelligence artificielle appliquée au retail !

Cependant, ce “machine learning” n’est pas sans faille et quand il est appliqué aux secteurs économique ou politique, il peut avoir des enjeux importants. C’est pourquoi des développeurs commencent à chercher comment désapprendre aux machines ce qu’elles ont appris d’elles-mêmes.

L’homme désapprend difficilement, l’ordinateur le peut

En effet, le problème pour les algorithmes est que le rôle accru du digital et de l’analyse informatique voit se multiplier les techniques de spams numériques et de piratage. Elles consistent à générer massivement (ou à l’inverse de manière ciblée) des données erronées dans le but de manipuler des informations agrégées et biaiser les décisions prises justement par les algorithmes.

Dessin d'un robot "apprenant"

L’authentification des sources, la traçabilité des chaînes de décision digitales et des mécanismes renforcés de contrôle sont donc de plus en plus nécessaires. Mais qu’en est-il de la correction et de l’oubli de l’information dans les systèmes prédictifs ? L’homme montre un biais cognitif sur l’antériorité des informations : il désapprend difficilement des structures mentales. Les ordinateurs, en revanche, ont cette capacité.

Un nombre croissant de scientifiques et de leaders d’opinion plaident aujourd’hui pour qu’ils intègrent des outils de désapprentissage, de correction et d’oubli. Yinzhi Cao et Junfeng Yang, deux professeurs des universités Lehigh et Columbia aux États-Unis, ont reçu début 2016 le soutien financier de l’Etat fédéral pour développer des outils de “machine unlearning”, afin de modifier voire effacer des opérations et des données à différents niveaux de granularité.

Le code est-il la loi ?

Cet effort est une étape essentielle de ce qu’on désigne sous le nom d’“intelligence augmentée”. Au tournant du siècle, le juriste américain Lawrence Lessig prédisait la puissance normative du code informatique alors résumée dans la célèbre expression “le code est la loi”.

Retrouvez notre article sur le Deep Learning !

Aujourd’hui, avec le développement du machine learning, du deep learning, de la blockchain et de leurs applications envisagées dans les domaines bancaires, du droit et de l’assurance, l’expression prend une dimension supplémentaire. De plus en plus d’activités sont régies par des applications informatiques sous-jacentes, individualisées voire distribuées. Les règles humaines laissent une large place à l’interprétation ; elles doivent s’aider du prisme informatique, spécifique et plus rigide, mais ne pas se reposer sur ses potentiels.

Le domaine du machine learning devra s’adapter afin d’intégrer de nouveaux moyens de traiter d’éventuels litiges, des erreurs ou des piratages, d’arbitrer les antécédents et les droits à l’oubli, de réconcilier les parties informatiques (exécutables) avec les parties humaines (interprétables). Car le monde réel ne pourra pas se résumer à des échanges complexes programmés dans des algorithmes, fort heureusement.  

 

 

 

Keynote du chercheur Yinzhi Cao sur le Machine Unlearning à l'occasion du IEEE Symposium on Security and Privacy

Article de Pierrick Bouffaron et Arnaud Auger, senior strategic analysts à L'Atelier North America

Mentions légales © L’Atelier BNP Paribas