Éthique et intelligence artificielle font-elles bon ménage ? Les intelligences artificielles ont-elles leur place dans le monde de l’éducation ? Un an après l’apparition de ChatGPT, ces questions sont encore clivantes. En cause : l’impossibilité de faire cohabiter les IA génératives et les mécanismes naturels de l’apprentissage.
Par rapport aux technologies existantes, quels enjeux nouveaux l’IA soulève-t-elle ? Selon des experts réunis à l’occasion d’une table ronde organisée en juin par France Université Numérique, les systèmes basés sur l’IA posent surtout le problème de l’opacité de leur fonctionnement et de la non-vérifiabilité des résultats (pour des outils comme ChatGPT). Pour Raja Chatila, professeur émérite d’intelligence artificielle et d’éthique des technologies à Sorbonne Université, il est également difficile d’apprécier la nature des effets de l’IA sur l’être humain. « On sait que les neuro-technologies sont des outils qui aident à comprendre le système nerveux et le cerveau. Ce n’est pas forcément le cas de l’IA puisqu’elle est utilisée dans différents domaines d’application. En revanche, dès lors qu’elle touche à l’être humain, nous avons pour obligation de savoir si elle est « bienfaisante ». Or, il n’existe pas, à priori, d’application de l’IA qui soit bienfaisante pour les êtres humains. »
« L’illusion » de l’interaction
Autre question fondamentale que pose l’IA : l’interaction homme-machine et son corollaire d’anthropomorphisation de la machine. « Ces interactions posent des questions comme le rôle que doivent avoir, au sein de la société, ces nouveaux instruments avec lesquels il est possible de dialoguer », souligne Giada Pistilli, doctorante en philosophie. Une question qui se pose fortement dans le domaine de l’éducation. Selon Catherine Tessier, chercheuse et référente intégrité scientifique et éthique de la recherche à l’ONERA – The French Aerospace Lab : « Le fait qu’il y ait une illusion d’interaction avec des réponses fournies qui ressemblent à ce que produirait un être humain brouille les frontières. Cela soulève des problèmes de manipulation ou de solutions miracles. »
ChatGPT : une « béquille » pour les élèves ?
Alors que Science Po a interdit l’utilisation de ChatGPT dans la production d’évaluations écrites ou orales, comment doivent se positionner les enseignants ? Doit-on craindre que les agents conversationnels favorisent une économie de travail ? « Si on apprend à un enfant à marcher avec des béquilles, il aura du mal à marcher de façon autonome à l’âge adulte. C’est pareil pour l’élève. Mais également pour l’enseignant : s’il apprend à enseigner avec des béquilles, que devient l’essence même de l’enseignement ? », interroge Catherine Tessier. Il est ainsi possible que ces outils se substituent, pour une part, aux mécanismes fondamentaux de l’enseignement et de l’apprentissage. « L’apprentissage est davantage un cheminement qu’un résultat. On apprend en essayant d’apprendre, en faisant des erreurs et en posant des questions », affirme Raja Chatila. Si tout ce cheminement de pensée est perturbé par le recours facilité à des textes synthétiques générés automatiquement, l’élève risque de ne jamais pouvoir appliquer ce qu’il est a appris : l’analyse, la synthèse…
L’importance de la critique du résultat
Les usages de l’IA se révèlent néanmoins intéressants dans certains cas : « Lorsque le recours à ces outils se fait en élargissant le champ des informations et en s’assurant de la fiabilité des sources, ils peuvent devenir utiles », nuance Raja Chatila. Toutefois, puisqu’elle est capable de générer des dissertations, l’IA peut donner une illusion d’apprentissage aux élèves. Comment, dès lors, les accompagner aux usages ? « Il faut toujours remettre en question les informations récoltées. Dès que l’on utilise ces systèmes comme moyen plutôt que comme résultat final, ils peuvent représenter une aide utile », pointe Alexis Leautier, ingénieur expert à la CNIL. En effet, si elle est souvent comparée, par ses défenseurs, aux calculatrices dont l’usage a longtemps été interdit en classe, l’IA ne fournit pas de résultats indiscutables. « Comme il n’est pas possible de caractériser le résultat, il faut toujours le critiquer. Il faut donc mobiliser des connaissances que l’on a déjà acquises », indique Catherine Tessier.
La mission fondamentale de l’école
Parce que ses jeux de données évoluent en permanence, ChatGPT ne permet pas la reproductibilité des résultats, qui est un impératif de la démarche scientifique. « Cela est gênant dans le domaine de l’éducation : si 20 élèves d’une classe formulent la même requête et qu’ils obtiennent des résultats différents ou contradictoires, on ne tire rien de l’IA », ajoute-t-elle. La mission fondamentale de l’école est donc d’apprendre aux élèves à raisonner : « Sa mission ne doit pas être réduite à l’acquisition de connaissances. Elle doit aider les élèves à acquérir des savoir-faire et des savoir-penser en ne franchissant pas trop vite certaines étapes fondamentales de l’apprentissage », conclut Raja Chatila.