Les pires usages de l’intelligence artificielle en formation

Pinterest LinkedIn Tumblr +

Personnalisation des apprentissages, automatisation de tâches chronophages… L’intelligence artificielle peut être une formidable alliée pour les acteurs de la formation. Cependant, certains usages peuvent se révéler néfastes pour les apprentissages, voire désastreux. Voici une liste des cinq erreurs d’usage de l’IA en formation.

1.Confondre gain de temps et gain de sens

Selon certains experts de la formation, l’intelligence artificielle est trop souvent considérée comme un outil de gain de temps, au détriment de la qualité des contenus qu’il est possible d’en retirer. « Il est évident que l’IA fait gagner du temps. Mais ce point est à nuancer. Souvent, les acteurs utilisent l’IA pour concevoir des quiz ou corriger des copies en deux minutes. Ils sont tentés de tout lui déléguer sans prendre le temps d’avoir une position réflexive sur le sens de leur métier », explique Lucie Dhorne, autrice (notamment du livre L’IA pour la formation) et formatrice. Il convient plutôt de définir clairement les objectifs pédagogiques de la démarche de formation. Par exemple, avant de se faire assister pour réaliser des quiz, il faut fournir à l’IA du contenu de qualité afin que les ressources générées ne soient pas trop généralistes.

2.Se tromper d’IA

Il existe plusieurs typologies d’IA : des outils de génération de textes, d’images, de vidéos, de musique, de slides… « Peu de formateurs savent qu’il existe des IA spécialisées dans le mind mapping ou l’infographie par exemple. Résultat : ils demandent plusieurs types de ressources à une seule IA comme ChatGPT », observe-t-elle. Si ChatGPT propose une interface dédiée au mind mapping, les contenus générés sont beaucoup moins qualitatifs que ceux que d’autres outils comme Mapify. « L’idée est que les formateurs apprennent à choisir la bonne IA en fonction de leurs objectifs pédagogiques, généraux et particuliers. Pour cela, ils doivent avoir déjà défini leur déroulé pédagogique. C’est une démarche nécessaire pour identifier les activités pédagogiques que doivent réaliser les apprenants et construire les méga-prompts les plus pertinents », précise-t-elle.

3.Utiliser l’IA sans esprit critique

L’utilisation de l’IA sans méthode ni esprit critique est nuisible à l’activité intellectuelle. Selon une étude publiée en mai 2025 par Microsoft Research, « lorsque les travailleurs utilisent ces outils, l’effort de pensée critique se déplace de la recherche d’informations vers la vérification d’informations ; de la résolution de problèmes vers l’intégration des réponses de l’IA ; de l’exécution de la tâche vers la supervision de la tâche ». Ainsi, l’usage de l’IA comme assistant pour gagner du temps réduit la rétention de l’information qu’elle génère. « À l’inverse, lorsqu’on adopte une méthodologie pour prompter, on obtient une meilleure intégration de l’information », explique-t-elle. Concrètement, l’idée est de s’engager dans une activité cognitive active avant de se tourner vers l’IA en vue d’en retirer des contenus plus profonds. Il reste que les IA actuelles ne le permettent pas. La même étude appelle à ce que les outils d’IA générative soient conçus « de manière à soutenir la pensée critique des travailleurs du savoir, en prenant en compte les obstacles liés à leur motivation et à leurs capacités ».

4.Se fier aux jeux de données des IA

Il s’agit d’éviter d’utiliser l’IA comme outil de recherche d’informations et de lui fournir soi-même les bonnes ressources afin qu’elle puisse s’y appuyer pour délivrer des contenus. « C’est d’autant plus important que les datasets (jeux de données) des IA génératives disponibles sur le marché ne correspondent pas toujours au sujet traité par le pédagogue. Ce dernier doit savoir qu’il reste plus expert de sa discipline que l’IA », souligne-t-elle. Il existe des possibilités d’usage qui permettent d’éviter cette erreur. Dans ChatGPT par exemple, il est possible – pour les abonnés – d’activer la fonctionnalité « Projets », qui permet de créer des espaces de travail structurés (RAG). « Cette fonctionnalité permet de regrouper des conversations par thématique, d’importer différents types de fichiers et de donner des instructions claires. Par la suite, ce « projet » va à chaque fois répondre aux besoins sur la base des contenus fournis », explique-t-elle.

5.Ne pas accompagner les apprenants

Une fois que les formateurs ont adopté un usage éclairé de l’IA, ils doivent attirer l’attention des apprenants sur différents aspects : protection des données privées, usages systématiques sans profondeur… « Certains enseignants pensent, à tort, que leurs élèves utilisent mieux l’IA. Par exemple, ChatGPT est de plus en plus utilisé par les jeunes comme psychologue ou coach de vie. Les enseignants doivent ainsi sensibiliser à ces dérives d’usage, impliquer les apprenants et les accompagner dans la détection et la correction des erreurs de l’IA », conclut Lucie Dhorne.

Share.