Couverture du journal du 22/01/2021 Consulter le journal

Intelligence artificielle, dangers et opportunités

Tandis que la Commission européenne prépare une réglementation visant à garantir la neutralité de l’intelligence artificielle, deux entrepreneurs à impact, Stéphanie Delestre dans l’intérim digital (Qapa à Paris et Bordeaux), et Guillaume-Olivier Doré dans la Fintech (Elwin à Bordeaux), nous expliquent comment ils contrent les biais intrinsèques aux algorithmes, jusqu’à en faire des outils de lutte contre les discriminations. Entretien croisé

intelligence artificielle Qapa Interim Stéphanie Delestre et Guillaume-Olivier Doré

Photo de Markus Spiske provenant de Pexels

EJG : Pour commencer, pouvez-vous nous donner votre définition de l’intelligence artificielle et nous expliquer dans quelle mesure elle intègre forcément des biais ?

Guillaume-Olivier Doré, PDG d’Elwin / Mieux Placer

Guillaume-Olivier Doré, PDG d’Elwin / Mieux Placer © D. R.

Guillaume-Olivier Doré : « Ma vision, c’est que l’intelligence artificielle n’existe pas aujourd’hui en tant que telle. L’abus de langage autour de ce qu’on appelle l’intelligence artificielle, c’est au minimum du machine learning (des algorithmes permettant à la machine d’apprendre par système itératif), au mieux des réseaux de neurones auto-apprenant (la même chose en plus puissant). Pour véritablement faire une intelligence artificielle autonome, on aurait besoin d’une part de machines avec des capacités de traitement infiniment plus élevées qu’aujourd’hui, comme la technologie quantique, qui peut traiter des trillions de données en quelques secondes. D’autre part, il faut des quantités de datas infiniment plus nombreuses que celles dont on dispose sur chacun des sujets. Comme aujourd’hui, la donnée est partielle, elle est forcément biaisée. »

Stéphanie Delestre : « L’intelligence artificielle, ce sont principalement des algorithmes qui vont copier ce que fait le cerveau, pour prendre des décisions ou aider à la prise de décision, et pas seulement sur des tâches répétitives. Mais attention, on ne peut faire de l’intelligence artificielle que quand on a la bonne équipe, des contrôles internes et externes sur ce que l’on fait et surtout, énormément de datas. Sinon, les biais peuvent être impressionnants : la machine peut vous dire d’aller à droite alors qu’en fait, il faut aller à gauche. »

Dans l’intérim, l’intelligence artificielle permet de proposer de l’emploi sans autre forme de discrimination que celle des compétences

EJG : Quelles peuvent être les conséquences de ces biais sur la vie des gens ?

G.-O. D. : « Selon moi, les conséquences sont très sociales. Dans le secteur de la finance, cela revient à cloisonner l’accès à un certain nombre de produits et à faire de la discrimination financière qui va depuis la manière dont on perçoit les gens pour faire des prêts jusqu’aux placements financiers. Or ce qui drague le monde, malheureusement, c’est la finance. Donc les conséquences peuvent être assez importantes : c’est comme si on confiait à des machines la gestion de l’ascenseur social quand on sait que si ce n’est pas un effort commun de tout le monde, ça ne fonctionne pas. »

S. D. : « Moi, j’ai envie de prendre les choses à l’envers et de dire qu’au contraire, l’intelligence artificielle supprime les biais. Dans le secteur de l’intérim, j’y vois une énorme opportunité pour contourner tous les freins et les blocages qui peuvent être dans la tête d’un être humain, et proposer de l’emploi aux gens sans aucune forme de discrimination autre que celle des compétences, contrairement à quand vous allez dans une agence traditionnelle avec votre CV sous le bras et que vous dépendez de la personne en face de vous. L’intelligence artificielle, elle, reste simple : elle fait matcher des compétences avec une recherche de compétences, les critères sont extrêmement objectifs. »

Nous employons entre 3 000 et 4 000 personnes tous les mois : Qapa Intérim fait aujourd’hui partie des plus grandes entreprises de France

EJG : Pour que l’intelligence artificielle présente le moins de biais possible, il faut donc de grandes quantités de datas…

G.-O. D. : « Chez Elwin/MieuxPlacer, nous développons un logiciel, une sorte d’assistant digital pour aider les conseillers en gestion de patrimoine. L’algorithme d’Elwin est nourri avec la data que nous collectons via notre plateforme grand public MieuxPlacer.com. Nous y proposons à des particuliers de découvrir quel est leur profil d’épargnant (qui est fonction du passé sociologique, de l’âge, de la période de vie, de la situation familiale…), et de se mettre en relation avec un professionnel s’il souhaite acheter un produit d’épargne ou être conseillé financièrement. Lorsque les particuliers font leur parcours client, cette data-là permet de mieux comprendre le comportement financier et donc de nourrir autour du produit Elwin, l’allocation d’actifs pour les professionnels. »

 

Stéphanie Delestre, PDG de Qapa

Stéphanie Delestre, PDG de Qapa © D. R.

S. D. : « Dans le secteur de l’intérim, très peu de sociétés font de l’IA. Notre mission chez Qapa, c’est de trouver de l’emploi aux cols bleus, aux personnes non cadres jusqu’à un niveau bac+3, bac+4. On a un historique d’une dizaine d’années. Plus de 4 millions et demi de personnes sont inscrites sur notre site dans toute la France, dans tous les secteurs, dans tous les métiers. Des centaines de milliers d’offres d’emploi sont passées sur le site. On a enregistré ces données, on les a archivées, classées – de façon anonyme bien sûr, dans le respect de la Cnil. Et on apprend de cette data, de ce qu’est un profil, un CV, une offre d’emploi. On apprend aussi de toutes les interactions entre les données : tel profil et telles compétences, basé à tel endroit, va plutôt postuler à tel type d’offres, etc. C’est comme ça qu’on fait du machine learning. Ce volume de datas est tellement large que j’estime qu’il devient référent. D’ailleurs, c’est grâce à cette quantité de datas qu’a eu lieu la rencontre entre Qapa et l’Inria (Institut national de recherche en informatique et en automatique, NDLR), lorsque la grande chercheuse en machine learning Michèle Sebag est venue me voir pour les utiliser pour apprendre à parler à des robots… »

 

 

La diversité dans les entreprises, en particulier dans les start-ups, est un sujet pour lequel je me bats depuis 30 ans. Guillaume-Olivier Doré

EJG : Les équipes qui conçoivent les algorithmes peuvent également intégrer des biais intrinsèques à leur sexe, leur origine ou leur catégorie sociale directement dans le code…

G.-O. D. : « Il faut prendre en compte la notion de biais potentiel dans la structuration même de l’algorithme. Un code, c’est un langage dont chaque auteur a une patte, une signature. Le cœur de l’algorithme doit donc être une construction commune, il ne doit pas être mis entre les mains d’une seule personne. Et cela doit se faire nativement.

En fait, le premier biais qui existe dans les start-ups, et dans les entreprises en général, c’est l’absence de diversité dans les équipes, c’est le vrai sujet pour lequel je me bats depuis 30 ans. Donc sur la quinzaine de salariés de ma société, il y a des nationalités différentes, il y a autant de femmes que d’hommes qui codent, et autant de gens d’origine modeste, qui ont appris sur le tas, que de grandes écoles avec des formations ultra-structurées. Et c’est une vraie volonté : je veux continuer d’embaucher des gens qui ne connaissent rien à mon métier pour qu’ils aient un regard neuf sur ce qu’on fait. C’est de l’opposition et de la confrontation des idées que naissent les meilleurs outils. »

S. D. : « Selon moi, le biais peut exister dans les algorithmes quand on n’a pas forcément la bonne équipe au bon niveau. Chez Qapa, notre CTO Julien Ros a un PhD (doctorat, NDLR) en machine learning et une grande partie de nos équipes sort des meilleures écoles d’informatique spécialisées en matching et en machine learning. Nous avons aussi recruté Jean-Marc Potdevin, qui est un grand monsieur de la tech et notre grand chef de la R&D. Il travaille deux jours par semaine chez Qapa et les trois autres pour le Réseau Entourage, qu’il a créé. Cette association à but non lucratif, qui vient en aide aux SDF et aux personnes très éloignées de l’emploi, est à l’origine du projet Linkedout, pour que les gens partagent leur réseau avec ceux qui n’en ont pas, avec lequel Qapa a un partenariat. En fait, nos garde-fous, ce sont les valeurs d’inclusion et de diversité qui sont les fondements de l’entreprise. Par exemple, nos algorithmes ne tiennent pas compte des prénoms : que vous vous appeliez Rachida ou Laurence, ça ne change rien. »

 

EJG : Au-delà de l’équipe qui le crée et du volume de datas qui l’alimente, comment s’assurer qu’un algorithme est bien fait ?

G.-O. D. : « Un algorithme doit être testé. Chez Elwin, nous avons fait plus de 5 000 tests sur nos codes pour nous assurer que les poids ou les arbres décisionnels sont construits de manière complètement conventionnelle et égalitaire. C’est un point très important que nous sommes capables de documenter dans le cahier des charges et qui nous permet d’atteindre un certain niveau de transparence. Cela rejoint la notion d’Accountability by design : l’obligation que l’on s’impose de rendre compte. Ça veut dire que quand vous développez le code de l’algorithme, vous développez en plus une charte, une explication visible de la manière dont c’est construit. Dans l’univers financier, le régulateur veut s’assurer que cette charte-là est bien intégrée dans tous les outils et qu’on est capable de comprendre pourquoi telle décision pèse tel poids dans tel algorithme. »

S. D. : « Laisser les choses se faire sans contrôler ce qui se passe, c’est le troisième biais potentiel de l’intelligence artificielle. Donc chez Qapa, on a mis en place des algorithmes de contrôle. On a aussi créé un petit comité d’éthique que Jean-Marc Potdevin anime environ deux fois par an, où on invite des clients, des étudiants de grandes écoles d’ingénieurs… Ce comité valide les actions qu’on va mener dans les six prochains mois. Le contrôle interne est aussi humain : on suit les cohortes pendant tout leur parcours. Par exemple, on appelle les gens quand ils n’ont jamais travaillé avec nous, ou le premier soir, pour savoir si tout s’est bien passé… On met de l’humain là où c’est important, c’est un facteur de fidélisation.

Ensuite, il faut prendre en compte le résultat : quand on voit que notre intelligence artificielle permet de trouver plusieurs centaines de personnes en quelques heures à peine, pour les placer de façon durable dans l’emploi, c’est que ça marche ! Tout ça fait aussi l’objet d’un contrôle scientifique : on vérifie si nos taux de remise à l’emploi sont rapides ; combien de temps les gens restent dans l’emploi ; quand ils ont pris un emploi, est-ce qu’on arrive à leur en trouver un autre après ?, etc. »

On doit être capable de comprendre pourquoi telle décision pèse tel poids dans tel algorithme

EJG : Une réglementation européenne en préparation prévoit d’imposer des principes éthiques lors du développement et de l’utilisation de l’IA. Selon vous, un contrôle externe est-il aussi nécessaire ?

G.-O. D. : « Dans le secteur de la finance, l’Autorité des marchés financiers (AMF) et la CPR contrôlent déjà les outils d’accompagnement qui se targuent de faire de l’intelligence artificielle. Elles réclament un niveau de transparence extrêmement fort sur la manière dont sont construites les réponses de ces outils digitaux, parce qu’elles veulent être certaines que le biais, qui est intégré de fait dans l’IA, sera bien perçu et corrigé par l’individu qui utilise ces outils face au client final. »

S. D. : « Chez Qapa, nous avons un comité externe à la société qui analyse les réponses apportées par les algorithmes qu’on développe. Il s’agit d’un consortium monté avec des laboratoires de recherche de l’Inria-CNRS et de l’École des hautes études en sciences sociales (EHESS), ainsi que la société Dataiku (spécialisée dans la science de la donnée, NDLR). C’est un projet pour lequel nous avons gagné le Grand Défi numérique Bpi en 2017. Ça nous permet de faire contrôler nos algorithmes par des auditeurs externes, des laboratoires de recherche complètement indépendants avec des chercheurs spécialistes de ces sujets-là, mais aussi les bons intellectuels comme des philosophes, des écrivains, des biologistes, etc. »

 

EJG : Au final, pour limiter les risques, l’intelligence artificielle doit-elle rester un simple outil d’aide à la décision ?

G.-O. D. : « Comme je le précisais, dans la finance, on travaille sur des données en double aveugle. Chez Elwin, nous mettons à disposition des conseillers des outils basés sur la data que les clients transmettent : les comptes bancaires, le mode de fonctionnement, les revenus… Mais ces données financières sont hétéroclites et souvent inaccessibles : certaines ne sont pas transmises, d’autres ne sont pas exprimées à voix haute, certaines sont protégées juridiquement…

D’autre part, la finance comportementale, le rapport à l’argent sont des sujets d’étude sociologique complets : la perception est fonction de la situation personnelle, du genre, de l’origine sociale… mais aussi de facteurs exogènes : la phase de vie dans laquelle vous êtes fait varier les ressorts psychologiques. L’humain a donc son rôle à jouer, car c’est lui qui va être capable de poser des questions indirectes qui vont toucher à la sociologie des gens, de repérer dans les non-dits les éléments qui vont limiter les biais. Il doit être formé à les comprendre et à les corriger. C’est pourquoi selon moi, tous les outils basés sur du machine learning ne peuvent être que des outils d’accompagnement, de sélection, d’assistance et doivent être complétés par une relation humaine. »

S. D. : « L’intelligence artificielle n’est pas contre les ressources humaines, au contraire. Je pense que c’est un véritable outil d’aide à la décision. Et selon moi, elle peut aussi être un outil décisionnaire. Certains de nos clients sont tellement contents de la qualité de sourcing et de matching de nos outils que désormais, c’est la plateforme qui fait tout : elle diffuse l’offre, sélectionne les personnes, puis les envoie directement sur site à l’heure donnée. Et c’est très efficace. Nous employons entre 3 000 et 4000 personnes tous les mois. Le fondement de notre création, c’était d’utiliser les nouvelles technologies pour mieux rapprocher l’offre et la demande sans biais. La seule façon de le faire, c’est avec des machines. Et au contraire, l’humain, qu’il soit l’intérimaire ou le manager, retrouve toute son intégrité. La machine travaille en temps réel et sans faire de discrimination. C’est magique ! »