Dates and Venue

28 - 29 janvier 2026 | Porte de Versailles | Hall 6

Nouvelles dates


28 - 29 janvier 2026 | Porte de Versailles | Hall 6

L'IA : Intelligence accrue ou atrophie cognitive ? L'urgence de former face aux mésusages

mercredi 25 juin 2025

L'IA : Intelligence accrue ou atrophie cognitive ? L'urgence de former face aux mésusages

Yannig Raffenel | Learning Technologies France
L'IA : Intelligence accrue ou atrophie cognitive ? L'urgence de former face aux mésusages
Comment aider les collaborateurs à mieux penser avec l'IA
L'émergence fulgurante de l'intelligence artificielle générative, symbolisée par ChatGPT, a propulsé le monde de l'entreprise et de la formation dans une ère de transformation sans précédent. Les Directions des Ressources Humaines et les Responsables Formation sont en première ligne face à cette révolution. Tandis que les médias depuis 6 mois, se font l'écho d'études scientifiques parfois alarmantes sur les "dangers" de l'IA, une analyse plus fine révèle une vérité nuancée : le péril ne réside pas tant dans l'IA elle-même que dans ses mésusages. Il devient donc impératif de comprendre les mécanismes en jeu et d'agir en amont, en misant sur la formation pour développer une IAthique et une utilisation éclairée. 

Les signaux d'alerte des études scientifiques : au-delà du sensationnalisme

Les médias se sont emparés de récentes études, notamment celle du MIT, qui semblent pointer du doigt l'IA comme un facteur d'abêtissement. Le titre "ChatGPT est-il en train de casser le cerveau humain ?" est, certes, percutant, mais la réalité est plus complexe et moins fataliste.

Ces études ne démontrent pas un danger intrinsèque de l'IA, mais plutôt les effets délétères d'une dépendance excessive et d'une délégation effrénée et aveugle. Par exemple, l'étude menée par le MIT Media Lab, intitulée "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task", révèle que les étudiants ayant utilisé un grand modèle de langage (LLM) pour rédiger un essai étaient moins impliqués dans la tâche et moins engagés lors d'un travail similaire ultérieur. La conclusion n'est pas que l'IA rend stupide, mais que tricher avec l'IA (et la laisser faire le travail à votre place) ne mène à aucun apprentissage. C'est une évidence qui s'applique à toute forme de tricherie ou de paresse intellectuelle, bien avant l'avènement de l'IA.

Ce qui est particulièrement intéressant, c'est que cette même étude suggère que l'introduction d'outils d'IA après un effort initial autonome peut montrer une plus grande activité cérébrale et une meilleure intégration des essais. Cela renforce l'idée que l'IA doit être un levier et non une béquille.

D'autres recherches, comme celle de Microsoft Research et Carnegie Mellon University, intitulée "The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers", confirment que si l'IA générative permet de produire plus de contenu, elle peut aussi entraîner une moindre assimilation des connaissances si elle est utilisée passivement. La dépendance croissante, où les étudiants peinent à se passer de ces outils, est un signal d'alerte quant à l'affaiblissement potentiel de compétences fondamentales comme la réflexion critique, l'analyse, la synthèse, la mémoire et la créativité. L'IA nous pousse à devenir des "curateurs d'information plutôt que des créateurs de contenu", comme le souligne Ethan Mollick.

Le cerveau humain face à l'IA : entre plasticité et paresse cognitive

Le cerveau humain est une merveille de plasticité, capable de se développer et de s'adapter grâce à l'effort cognitif. Lire, écouter, regarder sont des entrées d'informations essentielles, mais l'apprentissage profond et le développement des compétences surviennent réellement lorsque nous produisons de l'information : écrire, parler, résoudre des problèmes, prendre des décisions. C'est dans cette interaction active avec le monde physique et social que notre pensée se structure et s'enrichit. L'isolement, le manque de dialogue et la passivité intellectuelle, à l'inverse, favorisent le déclin cognitif.

L'évolution nous a dotés d'une tendance naturelle à l'économie d'énergie. Si cette rationalisation a permis des avancées sociétales, elle peut aussi nous desservir face à l'IA. Lorsque nous déléguons systématiquement des tâches cognitives à une machine, nous risquons de freiner notre propre développement. L'analogie avec l'enfant à qui l'on "mâche" tout est frappante : en lui évitant les "bêtises" (qui sont en réalité des apprentissages), on retarde sa capacité à planifier, éliminer, optimiser et décider. De même, un service adaptatif qui nous offre la solution "parfaite" instantanément, ou l'usage systématique de tutoriels sans effort préalable de résolution, nous prive de l'opportunité de développer ces compétences cruciales.

Planifier, décider, optimiser, émettre des hypothèses, se tromper... C'est ce processus itératif, même imparfait, qui forge l'intelligence et la créativité humaine. Les études sur le cerveau confirment cette dynamique : l'activité cérébrale est plus forte lorsque l'individu est engagé activement dans une tâche. Si l'IA peut décharger une partie de cette charge, elle doit le faire de manière à stimuler, et non à atrophier, nos facultés.

Mésusages : là où le bât blesse

Le véritable enjeu réside dans les mésusages de l'IA, qui peuvent se manifester de plusieurs façons :

  • Délégation aveugle et paresse intellectuelle : Se reposer entièrement sur l'IA pour générer du contenu, résoudre des problèmes ou prendre des décisions sans processus de réflexion critique préalable. Cela conduit à un "déclin cognitif assisté" où les compétences cognitives s'atrophient comme un muscle non entraîné.

  • Perte de l'esprit critique et de la vérification : La confiance excessive dans les réponses de l'IA sans les remettre en question ou les croiser avec d'autres sources. Ceci est particulièrement dangereux dans un contexte de désinformation. Les "chambres d'écho" numériques, renforcées par l'IA, peuvent limiter l'exposition à des perspectives diverses et renforcer les biais existants.

  • Homogénéisation de la pensée et de la créativité : Si tout le monde utilise les mêmes outils d'IA de la même manière, les productions intellectuelles et créatives risquent de devenir uniformes, perdant ainsi en diversité et en originalité. La difficulté croissante à distinguer une œuvre humaine d'une œuvre générée par l'IA en est une illustration.

  • Impact sur la motivation et l'engagement : Si l'IA court-circuite le processus d'apprentissage en offrant des réponses "correctes" sans effort, elle peut diminuer l'engagement intrinsèque de l'apprenant et sa motivation à persévérer face à la difficulté.

Comme le philosophe Mathieu Corteel le précise, le danger n'est pas "l'idiocratie" mais l'effacement d'une part significative de la richesse de nos pensées et de nos actions si nous déléguons systématiquement nos pouvoirs d'action, de création et de décision aux machines. Le processus par lequel nous parvenons à une solution est aussi important, sinon plus, que la solution elle-même pour notre développement.

La formation : la clé de voûte d'une IA au service de l'humain

Face à ces constats, l'urgence est claire : il est crucial de former les citoyens, et en particulier les collaborateurs et managers, à bien se servir de l'IA. L'objectif n'est pas de bannir l'IA, mais d'en faire un levier pédagogique puissant, un "sparring-partner intellectuel" qui renforce nos capacités plutôt qu'il ne les atrophie.

Pour les DRH et les Responsables Formation, cela implique plusieurs axes stratégiques :

Former aux usages intelligents de l'IA :

  • Enseigner la pensée critique et la vérification des sources : Comment interroger l'IA, évaluer la pertinence et la fiabilité de ses réponses, croiser les informations. L'IA peut même servir à développer l'esprit critique en proposant des points de vue opposés ou des "erreurs" à identifier.

  • Développer la capacité à poser les bonnes questions (le "prompt engineering" étendu) : L'efficacité de l'IA dépend en grande partie de la qualité des requêtes. Apprendre à formuler des consignes claires, précises et structurées est une compétence fondamentale.

  • Encourager l'IA comme assistant et non comme substitut : Utiliser l'IA pour la recherche documentaire, la structuration d'idées, la génération d'exemples, la traduction, mais en gardant la main sur la phase d'analyse, de synthèse, de personnalisation et de validation. L'IA peut ainsi libérer du temps pour des tâches à plus forte valeur ajoutée cognitive.

  • Promouvoir l'apprentissage actif : Intégrer l'IA dans des scénarios pédagogiques où elle aide à la résolution de problèmes complexes, à la simulation, à l'exploration de scénarios, plutôt qu'à la simple production de réponses. En utilisant l'IA comme un exhausteur de moyens d'agir, il est possible de concevoir une véritable pédagogie de Learning by doing, utilisant la puissance du numérique !

Former les formateurs :

  • Un fossé existe entre les usages de l'IA par les apprenants et la maîtrise par les formateurs. Il est indispensable que les enseignants, tuteurs et managers-formateurs comprennent le fonctionnement des IA génératives, leurs limites, et sachent comment les intégrer dans leurs méthodes pédagogiques.

  • La formation des formateurs doit inclure l'identification et la limitation des usages détournés, l'indispensable remise à plat des évaluations, et la capacité à développer un regard critique pour guider les apprenants.

Mettre en place des chartes d'usage claires :

  • Définir des lignes directrices éthiques et pratiques pour l'utilisation de l'IA en entreprise et en formation. Cela inclut les questions de confidentialité, de droits d'auteur, et de l'équilibre entre délégation et effort cognitif.

  • Ces chartes doivent être évolutives et adaptées aux réalités de chaque métier et secteur.

Expérimenter et co-construire :

  • Ne pas craindre d'expérimenter de nouveaux formats d'apprentissage où l'IA devient un véritable partenaire. L'IA peut servir de tuteur personnalisé, d'agent conversationnel pour simuler des situations professionnelles, ou d'outil pour générer des exercices sur mesure.

  • Impliquer les apprenants et les collaborateurs dans la réflexion sur les meilleurs usages de l'IA pour leurs propres développements.

 

L'IA, un miroir de nos choix pédagogiques

L'IA n'est pas un problème en soi, pas plus qu'internet ou les calculatrices ne l'étaient en leur temps. Elle est un puissant catalyseur qui amplifie nos choix. Si nous l'utilisons passivement, elle risque d'affaiblir nos capacités. Si nous l'exploitons intelligemment, elle peut considérablement les renforcer.

L'enjeu pour les DRH et Responsables Formation n'est donc plus de se demander si l'IA rend plus "bête" ou plus "intelligent", mais bien de comment aider les collaborateurs à mieux penser avec l'IA. L'avenir appartient à ceux qui sauront développer une conscience critique, poser les bonnes questions et faire de l'IA non pas une béquille pour la paresse, mais un levier puissant pour l'apprentissage continu, l'innovation et l'excellence humaine. Il s'agit de cultiver l'IAthique : l'éthique de l'Intelligence Artificielle au service de l'être Humain.

 

 

Voir tous les articles
Loading

Les sponsors de Learning Technologies France 2025