IA à l’université : « le vrai défi n’est pas la triche, mais l’apprentissage »

Pinterest LinkedIn Tumblr +

À l’heure où l’intelligence artificielle s’invite dans les établissements scolaires, certains redoutent une génération d’élèves téléguidés par les machines. Mais la réalité est plus nuancée pour Jeff Van de Poël, conseiller en IA pour l’Université de Lausanne. Selon lui, les étudiants veulent rester auteurs de leur travail. L’enjeu est donc moins d’interdire l’IA que d’apprendre à penser avec elle.

Pensez-vous, comme beaucoup d’enseignants, que l’IA générative pourrait faciliter la triche ?

Je refuse qu’on réduise le débat à la triche. La grande majorité des étudiants sont honnêtes et veulent mériter leurs notes. De plus, on ne peut pas obtenir un diplôme complet en trichant : il y a des examens surveillés, des oraux, des travaux suivis. Certains étudiants pourront peut-être être tentés d’utiliser l’IA de manière inappropriée pour certains devoirs, mais cela reste une minorité. Toutefois, il est vrai qu’une question se pose aujourd’hui pour les universités : avec l’essor de l’IA, les institutions doivent être capables de garantir que les compétences associées à un diplôme sont réellement maîtrisées par les étudiants. Cette réflexion existe déjà dans certains pays. En Australie par exemple, les autorités demandent actuellement aux universités si elles sont toujours en mesure d’attester que les étudiants possèdent effectivement les compétences correspondant au diplôme délivré. C’est donc un sujet qui va progressivement concerner toutes les institutions d’enseignement supérieur.

L’IA peut expliquer un cours, répondre à des questions ou générer des exercices. Pourquoi l’enseignant reste-t-il, malgré tout, irremplaçable ?

L’enseignement reste fondamentalement un acte social. Une machine peut produire du texte ou générer des exercices, mais elle ne peut pas mimer les dimensions humaines de la relation pédagogique. Un enseignant peut percevoir si un élève est mal dans sa peau, détecter un conflit dans un groupe ou modifier l’orientation de son cours en fonction des réactions des étudiants. Cette capacité à ajuster sa pédagogie en temps réel relève d’une interaction sociale que l’IA ne peut pas reproduire. En revanche, l’IA peut rendre de nombreux services pédagogiques comme accompagner des parcours de remédiation ou soutenir le suivi des étudiants. Dans ce cas, elle devient un outil au service de l’enseignant et de sa pratique pédagogique.

Le recours à l’IA ne risque-t-il pas d’affaiblir l’effort intellectuel des élèves, par exemple pour résumer un texte ou formuler une synthèse ?

Les outils d’IA ne dispensent pas d’apprendre. Le principal danger est ce que j’appelle la délégation cognitive. Les étudiants peuvent utiliser l’IA et avoir l’impression de comprendre un sujet, alors qu’ils ne sont pas réellement entrés dans la démarche intellectuelle nécessaire pour le maîtriser. L’IA produit des contenus plausibles, mais cela ne signifie pas qu’ils sont justes. Les étudiants doivent donc en être conscients, être capables d’analyser et de valider ce que la machine produit. Ainsi, il est possible de collaborer avec l’IA pour rédiger des dissertations ou réfléchir, mais l’être humain reste responsable de la production finale. C’est une question éthique : si un étudiant produit un contenu avec l’aide de l’IA, il doit être capable de comprendre ce qui est écrit et d’en assumer la responsabilité. Sans cela, il devient victime d’une illusion de connaissance qui peut conduire à de mauvaises surprises lors des évaluations.

Comment toutefois repenser les devoirs à la maison, comme les dissertations, dans un contexte où l’IA est accessible à tous ?

La première chose est d’établir un cadre clair. Les enseignants doivent préciser à quel moment l’IA peut être utilisée et pour quels usages. Par exemple, elle peut servir à faire du brainstorming, à obtenir un retour sur la forme d’un texte ou à corriger certains aspects linguistiques. En revanche, le choix de la problématique, l’angle d’analyse ou l’orientation d’un travail doivent rester personnels. Ces dimensions relèvent de la réflexion propre de l’étudiant. Une démarche évaluative intéressante consiste ainsi à prendre davantage en considération le processus de production que le produit final. Dans ce cadre, on demande aux étudiants d’indiquer à quels moments ils ont utilisé l’IA et pour quelles raisons. Ce type de « journal réflexif » permettrait de mieux comprendre leur démarche intellectuelle. Il peut même conduire à des évaluations plus justes puisqu’on ne se limite plus uniquement au résultat final : on tient également compte de la réflexion personnelle qui a conduit à la réalisation du travail.

Quelle serait, selon vous, l’erreur stratégique que l’école pourrait commettre face à l’essor de l’IA ?

La plus grande erreur serait de faire comme si ces outils n’existaient pas. L’IA fait désormais partie du contexte dans lequel nous vivons, et l’école doit s’en saisir. Une autre erreur serait de croire que les outils de détection de l’IA vont résoudre le problème. Aujourd’hui, ces systèmes ne sont pas fiables. Ils reposent essentiellement sur des analyses stylistiques et peuvent facilement produire de faux résultats. Un texte rédigé par un humain peut être identifié comme produit par une IA simplement parce que sa forme correspond à certains critères. La bonne approche consiste plutôt à former les étudiants et les enseignants à une utilisation critique et éthique de ces technologies. L’enjeu est de former des esprits capables d’interroger, de vérifier et de comprendre ce que produisent les systèmes d’IA plutôt que de s’en remettre passivement à leurs réponses.

Share.