Échos Judiciaires Girondins : Vous portez la chaire « IA digne de confiance » lancée cette année par l’Enseirb-Matméca (Bordeaux INP) et l’université de Bordeaux, en partenariat avec Kedge Business School. Dans quel but a-t-elle été créée ?
Laurent Simon : Le but ultime étant d’avoir une IA autonome et indépendante, la question est de savoir si l’utilisateur peut vraiment se remettre à ses décisions. Pour cela, il faut que l’IA puisse rendre compte de la certitude de ses décisions en les expliquant, en fournissant une preuve formelle. Dans le cas de recommandations médicales, par exemple, l’humain valide toujours ce qui est produit par la machine : le médecin peut vérifier une radiographie. D’ici quelques années, la machine aura accès à une vision multimodale et sur la durée du corps humain, qui ne sera pas accessible au médecin. La machine devra donc être capable de lui rendre compte de sa décision de manière intelligible. C’est un ingrédient indispensable à la confiance. Or les systèmes décisionnaires actuels à base d’apprentissage automatique sont extrêmement complexes et opaques. Ils possèdent des milliards et des milliards de paramètres et chacune de leur décision résulte de milliards et de milliards de calculs. Il faut être capable de les résumer, de les abstraire. Aujourd’hui, on ne sait pas le faire, cela pose d’énormes problèmes scientifiques.
EJG : Quels sont vos axes de recherche pour y parvenir ?
L. S. : Un premier axe technologique est de considérer que malgré l’extrême performance des systèmes actuels, ils ne sont finalement pas adaptés au besoin d’obtenir une explication simple. Il existe un autre type d’IA, l’IA logique, capable de raisonnements que l’on sait prouver, mais qui n’a pas les mêmes performances ni la même souplesse. Une piste à suivre est donc de garder le meilleur de ces deux domaines afin d’obtenir un système robuste, simple et non faillible, pour les applications critiques…