L’affaire de la Sorbonne doit servir d’exemple : faute de règles sur l’IA, les établissements d’enseignements négligent les fondations sur lesquelles repose leur mission. Confiance, apprentissage, équité : les piliers de l’enseignement sont menacés.

En octobre 2025, l’université Paris 1 Panthéon-Sorbonne lançait des poursuites disciplinaires contre une étudiante de Master 2 qui avait fait usage de l’IA générative pour rédiger son mémoire. Après maints rebondissements judiciaires, le tribunal administratif de Paris a rendu son verdict le 12 février 2026 : l’université ne produit « aucun élément relatif aux règles encadrant l’utilisation de l’intelligence artificielle par les étudiants dans le cadre de leurs travaux académiques ». Faute de cadre clair, l’université est déboutée.

Ce qui s’est joué à la Sorbonne en février dernier devrait concerner chaque établissement d’enseignement. De l’UNESCO à l’OCDE, de la Brookings Institution à la coalition TeachAI, les rapports de référence publiés ces derniers mois convergent : les risques de l’IA générative dans l’éducation éclipsent ses bénéfices si elle est déployée sans stratégie ni cadre. Cette affaire nous rappelle l’urgence, pour chaque établissement, de se doter d’une stratégie et d’une gouvernance de l’IA. Trois raisons l’imposent.

Le contrat de confiance s’érode

Les enseignants ont de moins en moins confiance dans les rendus de leurs étudiants. Mais l’inverse est également vrai. Les travaux de Rebecca Winthrop à la Brookings Institution révèlent que près de la moitié des étudiants perçoivent désormais d’un mauvais œil l’usage que leurs professeurs font de l’IA, pour créer le contenu de leurs cours, pour évaluer, pour noter. Ils s’en sentent déconsidérés. La défiance circule donc dans les deux sens. Or, sans confiance, pas d’apprentissage. La relation pédagogique repose sur un contrat implicite : l’élève s’expose en montrant ce qu’il ne sait pas encore, l’enseignant s’engage à le guider avec attention. Quand l’IA s’interpose sans cadre, ce contrat vole en éclats. Certains étudiants viennent désormais contester leurs notes, ChatGPT à l’appui, convaincus que la machine a raison et le professeur tort. Seule une gouvernance explicite, conjuguée à un programme de littératie peut restaurer ce pacte.

L’IA ne développe pas les compétences, elle les court-circuite

On applique le terme de délégation cognitive aux élèves et étudiants. Or, contrairement aux adultes, qui ont potentiellement déjà développé la compétence qu’ils délèguent, quand un jeune confie sa dissertation à ChatGPT, il ne se déleste pas d’une tâche : il empêche une compétence de se construire. Une étude publiée dans Frontiers in Psychology en 2025 le montre sans ambiguïté : les étudiants assistés par l’IA obtiennent de meilleurs résultats immédiats, mais leurs performances s’effondrent dès que l’outil est retiré. Et les jeunes le pressentent : l’une de leurs principales inquiétudes vis-à-vis de la technologie, c’est de devenir bêtes.

L’apprentissage est aussi un acte social. On apprend par l’échange, la confrontation des points de vue, le retour de ses pairs ou d’un enseignant. Or, les chatbots sont sycophantiques par design : ils acquiescent, flattent, ne contredisent jamais vraiment. Plus on personnalise l’apprentissage avec l’IA, plus on le rend solitaire et moins il nous prépare à la vie en société. Cela suppose une stratégie qui délimite où l’IA a sa place, et où elle n’en a pas.

Sans règles communes, l’équité mise au banc

Il y a une injustice que l’on ne mesure pas assez. Des étudiants bien intentionnés, qui s’appliquent à ne pas recourir à l’IA pour s’assurer d’apprendre véritablement, se retrouvent parfois avec des notes inférieures à celles de camarades qui, eux, n’ont pas fait cet effort. Cette discipline personnelle ne fait plus le poids quand les notes entrent en jeu pour accéder à un master, un stage, un premier emploi. Sans règles communes, on punit ceux qui jouent le jeu et on récompense ceux qui le contournent.

L’affaire de la Sorbonne nous montre que cette injustice peut être inter-établissement : un étudiant peut être exclu dans un établissement qui a posé un cadre et relaxé dans un autre qui n’a rien mis en place. Même technologie, même démarche, deux verdicts opposés. Le maintien de l’équité appelle à une stratégie nationale, au-delà des cadres clairs et opposables dont doit se doter chaque établissement.

À propos de l’auteure : Solenne Savoia est cofondatrice du Frankie Institute et ancienne responsable de la formation en IA responsable au Mila (Montréal). Elle accompagne des dirigeants et leurs équipes dans l’adoption et la gouvernance de l’IA.