Couverture du journal du 02/10/2024 Le nouveau magazine

IA : un enjeu politique et sociétal

INTERVIEW. Directeur de recherche au centre Inria de l'université de Bordeaux, Pierre-Yves Oudeyer a contribué à une note de l'Inria remise à l'Élysée sur les grands modèles d'IA génératives. Persuadé qu'ils sont sur le point d'avoir un rôle économique majeur, il estime qu'ils doivent être appréhendés sous l'angle politique et sociétal.

Pierre-Yves Oudeyer, IA

Pierre-Yves Oudeyer © EJG

Echos Judiciaires Girondins : Selon vous, l’IA générative est sur le point d’avoir un impact économique majeur. Comment ?

Pierre-Yves Oudeyer : Tout d’abord, il faut rappeler que l’IA générative correspond à l’ensemble des techniques capables de générer du texte, des images, du son. Ce sont des machines qui ont été entraînées sur de très grands corpus de textes, images et sons à une tâche relativement simple qui est, étant donné le début d’un texte par exemple, de prédire la suite. Avec l’arrivée d’outils comme ChatGPT3, dans un nombre de cas suffisamment fréquents, la machine fournit des réponses d’une qualité intéressante. Une évolution récente permet même à ces modèles d’interagir avec d’autres logiciels. OpenAI est d’ailleurs en train de développer un GPT Store, où les entreprises pourront proposer l’équivalent d’une app. ChatGPT sera alors une sorte d’interface de médiation entre les utilisateurs et des logiciels assez techniques. Ma prédiction est que tout cela va avoir un rôle économique extrêmement important.

 

EJG : Vous avez contribué à une note de l’Inria remise à l’Élysée dans laquelle vous pointez les biais de l’IA générative et les enjeux associés. Quel est votre constat ?

P.-Y. O. : Les grands modèles de langages multimodaux sont entraînés sur des datasets. Ces bases de données sont des représentations des comportements d’individus et de groupes d’individus de tous types et dans tout contexte. On peut donc les voir comme des modèles culturels, puisque les machines encodent des régularités culturelles qu’elles observent dans les corpus. Par construction, un certain nombre d’informations, de points de vue vont être encodés et véhiculés par ces modèles. Or ce sont des points de vue subjectifs, qui peuvent contenir tout un tas de biais culturels potentiellement négatifs pour la société. Certains stéréotypes sont évidents, mais il y en a d’autres qui sont beaucoup plus insidieux, diffus et difficiles à identifier.

L’IA va avoir un rôle économique extrêmement important

EJG : Comment lutter contre ces biais ?

P.-Y. O. : Nous avons deux certitudes : la première est qu’on ne connaît pas la base de données qui a été entraînée sur les modèles les plus puissants. La deuxième, presque plus fondamentale, est le challenge que représente la définition des biais positifs ou négatifs. Ce n’est pas un problème technique, c’est un problème politique et sociétal, car il n’est pas du tout évident de formaliser les règles à établir. Il existe également un obstacle politique : comment pousser les organisations qui fabriquent ces modèles à être plus transparentes, à prendre en compte ces questions éthiques ? À cela s’ajoute le fait que ces modèles de langages sont utilisés par des millions de gens à travers le monde et se mettent à jour en permanence pour améliorer la réponse à l’utilisateur. Là se pose la question de leur gouvernance.

 

EJG : Existe-t-il aujourd’hui des solutions ?

P.-Y. O. : Les acteurs technologiques sont très conscients de ces enjeux. Mais la vision américaine qui pousse à proposer des systèmes safe est elle-même un biais. Leurs approches méthodologiques amènent par exemple des systèmes comme ChatGPT à devenir très politiquement correct. De nombreux acteurs aux États-Unis, en Grande-Bretagne et en Europe essayent d’agir à tous les niveaux : technologique, gouvernance, transparence, régulation. On assiste d’ailleurs en ce moment à des débats sur les règles à mettre en œuvre pour lesquelles chacun propose des choses diamétralement opposées et incompatibles. Pour ma part, j’ai tendance à penser que la transparence est fondamentale à tous les niveaux.

 

EJG : Pour vous, l’open-source est donc une solution ?

P.-Y. O. : De mon point de vue, c’est très important parce que la transparence et l’ouverture permettent de comprendre et de vérifier. L’open-source est aussi un outil important pour distribuer les pouvoirs. Il y a également des approches techniques, certaines consistent à mettre à la main des règles, d’autres reposent sur l’apprentissage : on met ces modèles en contact avec des groupes d’utilisateurs qui vont au fur et à mesure de l’interaction diriger le modèle dans une direction particulière. Cependant, on ne sait pas vraiment qui sont ces utilisateurs, quelles sont leurs instructions, comment ils sont payés… Selon moi, il faut des mécanismes de gouvernance qui mettent les utilisateurs au centre du développement et de l’encadrement de ces modèles. Ce qui a du sens, c’est de réguler les usages, les applications, en fonction des besoins et des contraintes des humains.

 

EJG : L’éducation des publics semble également nécessaire…

P.-Y. O. : Au-delà des approches top-down, l’éducation est en effet essentielle. Il faut donner aux gens de tous les âges les clés pour mieux utiliser et comprendre ces outils, pas simplement d’un point de vue technologique, mais aussi du point de vue culturel, sociétal, des enjeux de pouvoir, des enjeux économiques. C’est d’ailleurs la raison pour laquelle nous développons des outils pédagogiques. Avec mon équipe Flowers de l’Inria, nous avons commencé à diffuser une série de vidéos pédagogiques « ChatGTP en cinq minutes » à destination des collégiens, lycéens, des professeurs et des parents. Ces vidéos sont faites pour être utiles à tout le monde, y compris aux entreprises, qui sont nombreuses à vouloir utiliser ces outils, sans avoir de spécialistes en interne.

 

PIERRE-YVES OUDEYER EN BREF

Directeur de recherche au centre Inria de l’université de Bordeaux, Pierre-Yves Oudeyer dirige l’équipe de recherche fondamentale Flowers, qui s’intéresse à la modélisation des mécanismes de l’apprentissage chez l’humain, comme la curiosité. « Nous fabriquons des machines qui nous aident à mieux comprendre ces mécanismes. Puis transposons cette compréhension pour construire des machines qui vont apprendre de façon plus autonome et flexible, un peu à la façon des humains. Nous appliquons ensuite ces mécanismes à l’éducation ou l’aide à la découverte scientifique », précise-t-il.