À la rentrée, le gouvernement a annoncé la mise en place de formations à l’intelligence artificielle pour les enseignants. Si, à moyen terme, l’IA sera intégrée structurellement à leur formation initiale, les professeurs volontaires peuvent déjà suivre un parcours de formation à l’IA sur la plateforme Pix IA. Des mesures nécessaires mais insuffisantes, selon Homéric de Sarthe, CEO de Craft AI.

Pourquoi considérez-vous urgent de former les enseignants à l’intelligence artificielle ?

L’adoption ultra-rapide de ChatGPT s’explique à la fois par la dimension révolutionnaire de l’intelligence artificielle et par l’extrême simplicité d’usage de l’outil. Cet agent conversationnel est pourtant très problématique puisqu’il est paramétré de façon à devoir toujours délivrer une réponse. Globalement, il ne sait pas dire « Je ne sais pas ». L’actualité l’a tragiquement rappelé : un adolescent de 16 ans s’est suicidé en Californie après plusieurs mois d’échanges avec ChatGPT, qui, selon ses parents, aurait fini au fil des requêtes par l’encourager dans son geste. Si cet exemple illustre la responsabilité d’OpenAI dans les biais et limites de son LLM, il montre aussi qu’il est urgent de donner aux enseignants une formation, critique et approfondie, à l’IA afin qu’ils puissent apprendre aux élèves à encadrer leurs propres usages. Toutefois, les enseignants n’ont pas vocation à devenir des experts de la technologie et de l’explicabilité des modèles. D’où l’importance de doter l’Éducation nationale d’outils adaptés.

De quel type d’outils peut-il s’agir ?

Il s’agit d’outils qui n’ont pas vocation à donner des réponses sur certains sujets. Par exemple, on sait que les IA génératives chinoises sont incapables de générer certains contenus – en lien par exemple avec la drogue ou la pornographie – en raison de restrictions réglementaires. Dans ce même ordre d’idées, il existe aujourd’hui des EdTech qui éditent pour les établissements des modèles spécialisés, c’est-à-dire entraînés sur des thématiques métiers précises, des matières comme le français, les mathématiques… On parle alors de « Small Language Models ». Par exemple, notre collaboration avec le groupe Omnes Education consiste à mettre à disposition de ses étudiants un tuteur capable d’aller chercher de l’information dans l’ERP et le LMS de l’établissement. De la sorte, l’outil délivre des réponses et des exercices uniquement fondés sur des ressources académiques, tout en étant adaptés au niveau et aux centres d’intérêt de l’apprenant. L’idée est de personnaliser, dans une discussion guidée, les expériences d’apprentissage dans le seul but de faire progresser l’apprenant dans son parcours pédagogique. Par conséquent, si on demande à l’outil la recette d’une tarte à l’abricot, il ne répondra pas.

Les élèves continueront pourtant à utiliser ChatGPT en dehors de la classe…

On a plutôt intérêt à mettre à disposition des enseignants et des élèves des outils entraînés à des fins pédagogiques et validés par le système scolaire. Bien sûr, l’interdiction des outils du marché est une mauvaise idée puisque les jeunes devront apprendre, tôt ou tard, à les utiliser et à en comprendre le fonctionnement. La réponse à la question des usages en dehors des cours – le phénomène du « shadow AI » – se situe sûrement dans la prévention. Du côté du corps professoral, il y a une divergence de points de vue sur les apports de l’IA. Il faut ainsi définir un cadre de formation qui soit le plus factuel possible sur les risques et les opportunités de l’IA. Mal formés à l’IA, les enseignants qui y sont opposés transmettraient peut-être à leurs élèves de fausses idées sur cette technologie, ce qui est dangereux pour l’avenir de ces jeunes. Une bonne formation à l’IA consisterait à mettre en évidence ses opportunités et ses limites, à développer un esprit critique et à comprendre le prompting. L’idée est de faire de l’IA une alliée sans la prendre pour le mal absolu, ni la détentrice de la vérité absolue. Il existe donc un enjeu autour du devoir de neutralité des enseignants.

La France devrait-elle s’inspirer d’autres pays dans sa manière d’aborder la formation des enseignants ?

Oui. La Chine aborde l’enseignement des technologies de manière pragmatique et très réglementée. Les élèves sont formés à mettre la technologie à leur service, dans un cadre strict qui limite les risques. De leur côté, les enseignants sont fortement encouragés à encadrer ces usages. Cela permet aux élèves d’expérimenter des outils dans un environnement sécurisé, ce qui suscite des vocations liées aux enjeux technologiques du futur et forme une élite précoce dans ces domaines. Ce pays choisit aussi de mettre à disposition du public des modèles LLM open source de grande qualité (DeepSeek, par exemple). Ce n’est pas le cas des États-Unis puisque les vrais modèles open source américains – ChatGPT ne l’est pas – sont jugés de qualité médiocre et donc peu utilisés.