Les IA génératives les plus connues et pratiquées aujourd’hui n’ont pas toujours été conçues – dans leurs algorithmes et leurs modèles – en tenant compte de tous les principes éthiques. Il existe une autre dimension tout aussi essentielle et à la portée de tous : l’éthique des usages de l’IA. Comment utiliser ces intelligences artificielles de façon responsable, individuellement et collectivement ? Nous allons explorer cette question pour donner quelques clés afin d’être des acteurs éclairés et, pourquoi pas, éclairants de la révolution de l’IA, dans une culture du risque raisonné et de l’innovation responsable.
L’accélération des usages
Depuis le lancement de ChatGPT en novembre 2022, les IA génératives se sont imposées dans le monde professionnel. Selon Bpifrance1, début 2025, leur usage a doublé en un an chez les TPE et PME françaises, atteignant 31 %, dont 8 % de manière régulière. Suivant les secteurs, les taux varient : la communication, par exemple, s’est rapidement approprié ces outils, y compris dans le domaine du traitement d’image avec en particulier Midjourney.
Pour la première fois dans l’histoire des technologies, nous disposons d’un système technologique avancé qui fonctionne avec le langage dit naturel, imitant nos capacités cognitives. Le succès est immédiat : ChatGPT a conquis son premier million d’utilisateurs en cinq jours, là où Spotify avait mis à son lancement cinq mois.
Tout est en accélération, les services proposés comme leur adoption, et il y a aujourd’hui des concurrences féroces entre une dizaine d’acteurs majeurs et certains outsiders. Que cela soit en France avec Mistral ou en Chine avec Deepseek, de nouveaux acteurs émergent.
Un risque de désillusion cognitive
Les promesses de toutes ces IA sont au départ de pouvoir imiter par un dialogue avec la machine les capacités cognitives humaines et d’obtenir d’elles des résultats par des commandes écrites – les fameux prompts – en langage courant (dit naturel) dans une fenêtre contextuelle. Les IA génératives sont utilisées en majorité en France pour la production de contenus écrits (68 % des usages en entreprise), recherche et analyse de données (57 %), traduction (36 %), mais aussi production de code, de vidéos ou de mondes virtuels 3D. Avec l’essor des IA agentiques (OpenAI Operator par exemple) elles tendent vers une automatisation et une autonomie toujours plus poussée, qui devrait culminer avec l’IA générale, attendue si elle advient, d’ici la fin de la décennie.
Or, si la réglementation progresse avec l’AI Act2 en Europe, l’éthique des usages demeure un angle mort. L’adoption massive des IA s’accompagne d’une baisse de vigilance : la pensée critique semble s’effacer face à la fascination technologique. Une étude de Carnegie Mellon et Microsoft a même montré qu’une confiance excessive dans l’IA peut détériorer les facultés cognitives3.
La pensée critique semble s’effacer face à la fascination technologique
L’éthique des usages : un chantier ouvert
Aujourd’hui, le débat sur l’éthique de l’IA se limite souvent aux « computer ethics » avec des questions sur la conception des algorithmes, la sélection des données d’entraînement, ou encore l’écoconception pour baisser l’empreinte écologique dès la conception du code et des machines.
Ces questions sont essentielles, mais elles ne suffisent pas. Il est important de considérer une autre éthique, celle des usages de l’IA.
Et le dialogue avec la machine fut
Dès 1966, Joseph Weizenbaum créait Eliza, premier chatbot simulant un dialogue avec un psychothérapeute. Il observait déjà une anthropomorphisation non prévue de la machine : des utilisateurs lui prêtaient une intelligence et une personnalité. Ce phénomène, appelé Effet Eliza, est plus que jamais d’actualité.
Aujourd’hui, les leaders du secteur travaillent à augmenter cet effet jusqu’à vouloir faire simuler dans des prochaines IA de véritables émotions, comme l’explique Yann LeCun (VP et Chef Scientist chez Meta)4. Or, faut-il imiter les émotions humaines sans en comprendre l’impact éthique ? L’histoire de l’art notamment nous a appris et légué comment le récit façonne nos émotions et les transmet. Mais une IA capable de les détecter et de les manipuler pose un enjeu inédit. Prêt à encadrer cette technologie ou condamné à la subir ?
Deepfake, désinformation et loi d’Amara
Les IA permettent désormais de reconstituer une voix en quelques secondes et de créer des avatars en 3D à partir d’une simple image. La frontière entre réel et artificiel s’efface, y compris dans l’univers médiatique. Marshall McLuhan disait : « Le message, c’est le médium » ; bientôt, une IA pourrait dire : « Le message, c’est moi ! ».
Face à cette évolution rapide, nous avons, et les communicants en particulier, un rôle important à jouer, pour redéfinir la collaboration humain-IA, et ne se pas laisser entraîner dans une automatisation sans contrôle ni éthique.
L’effet Amara nous rappelle que nous surestimons l’impact d’une technologie à court terme, mais le sous-estimons à long terme. Ce que l’on considère aujourd’hui comme une avancée spectaculaire pourrait, demain, redéfinir notre rapport au réel et à l’information. Il est donc grand temps d’agir individuellement et collectivement. Les changements majeurs actuels ne sont que les prémices.
Nous surestimons l’impact d’une technologie à court terme, mais le sous-estimons à long terme
Cultiver l’agilité éthique par la pratique
Face à cette révolution, il n’existe pas de solution unique. Mais il est possible d’initier et cultiver une agilité éthique au sein des entreprises, associations et institutions, avec si besoin des nouveaux métiers comme « Chief AI Culture Officer ». Le CAICO pourrait être celle ou celui responsable d’assurer que l’intelligence artificielle au sein d’une organisation soit alignée avec sa raison d’être, et en particulier avec ses valeurs éthiques, philosophiques, culturelles et humaines. Car il ne suffit plus d’élaborer et d’adopter une charte : l’éthique doit être évolutive et adaptée aux mutations de l’IA, par la pratique.
Des initiatives émergent pour les citoyens, comme les cafés IA du Conseil national du numérique5, qui favorisent une IA citoyenne et démocratique avec des experts à la rencontre de chacune et chacun, partout en France. L’idée est d’inventer de nouveaux espaces et pratiques de l’éthique des usages de l’IA au niveau professionnel. Les associations professionnelles et filières métiers ont évidemment un rôle majeur à jouer dans cette réflexion. Et cela peut être déployé dans toutes les organisations.
Avec une volonté des entreprises de s’acculturer à ces nouveaux outils et d’y mettre en regard les ressources humaines efficientes – notamment les communicants – une intelligence artificielle à la fois efficiente et responsable peut être développée. L’intégration de l’éthique des usages de l’intelligence artificielle par la pratique, la formation et le dialogue permettra d’être pleinement acteur de cette révolution technologique sur le long terme.