Parce qu’elle soulève des questions éthiques et pédagogiques, l’IA générative bouleverse les pratiques scolaires traditionnelles. Les enseignants doivent pourtant s’en emparer pour mieux guider leurs élèves dans les usages, qui peuvent être à risque. Les éclairages de Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, chercheure au CNRS et autrice de l’ouvrage « Les robots émotionnels ».
Quelles sont les conséquences de l’arrivée progressive de l’IA dans l’enceinte de l’école ?
Récemment, ChatGPT, dont l’usage s’est rapidement répandu auprès des élèves, a suscité une grande inquiétude chez les enseignants. À raison, puisque nous constatons que les jeunes ne s’en méfient pas et qu’ils y voient, au contraire, un outil d’apprentissage pratique. Cet outil présente pourtant des risques car lorsqu’il répond à une question, il n’indique pas ses sources. Il délivre ainsi des contenus dont il est difficile d’évaluer la pertinence et la justesse. Par conséquent, ce modèle de langage, qui agglutine des milliards de données dont on ne connaît pas toujours la provenance, fait perdre la notion de source. D’ailleurs, il peut tout à fait fournir de fausses réponses. Les utilisateurs les plus « paresseux », qui ne les creusent pas, utilisent ainsi ces IA génératives comme une « prothèse de langage ». Les enseignants ont ainsi la responsabilité de prendre conscience des risques de ce type d’usages non éclairés. Cependant, ils ne doivent pas les interdire.
De quelles manières peuvent-ils s’en emparer ?
En continuant d’abord de prévoir des temps d’apprentissage classique, où le recours aux machines n’est pas possible, destinés à la construction d’hypothèses, de raisonnements, de conclusions… C’est est d’autant plus important de le faire sans outils intelligents que ces derniers n’invitent pas à construire des raisonnements. Bien au contraire, les IA font accéder immédiatement au résultat. Toutefois, leur utilisation peut être une manière d’amener les élèves à en déconstruire le fonctionnement. Cette déconstruction des contenus constitue justement une démarche scientifique intéressante.
Avez-vous un exemple concret ?
Les professeurs peuvent choisir, avec leurs élèves, une thématique donnée, construire un bon prompt (requête), interroger ChatGPT et récupérer le résultat. À partir de ce dernier, qui n’est pas sourcé, ils peuvent collectivement essayer de relever les idées majeures les plus à même de susciter des questionnements, voire des tensions. Les élèves ont ensuite pour tâche de retrouver sur Internet les sources sur lesquelles ChatGPT s’est possiblement appuyé, de comprendre comment le système s’est positionné par rapport à la thématique, de se demander si sa conclusion est bien étayée… Cette démarche est également une façon de mettre exprès les élèves face à des informations potentiellement biaisées, de les amener à appréhender le numérique de façon plus habile et plus critique, de leur apprendre à évaluer la pertinence des sources…
Au-delà de la production de résultats biaisés, quels sont les dangers majeurs des IA ?
Ces modèles peuvent véhiculer des idées discriminatoires, notamment en matière de genre. Par exemple, DALL-E, programme d’IA capable de créer des images à partir de descriptions textuelles, délivre des images de chirurgiens forcément masculins et blancs, des secrétaires féminines forcément belles et jeunes…. On sait aussi que les IA sont basées sur des modèles de langage massivement anglais, imposant ainsi une influence culturelle. Là encore, il s’agit d’inciter les élèves à se positionner par rapport à la pertinence des contenus générés, à questionner les représentations stéréotypées… Globalement, l’enjeu majeur est de faire comprendre aux élèves qu’ils ne doivent pas projeter une intelligence humaine sur les machines : celles-ci sont dénuées de conscience morale et de notions d’espace et de temporalité.
Comment l’école peut-elle affronter ces enjeux ?
Il est du devoir des enseignants de toutes les disciplines de consacrer des temps d’échanges dédiés à l’utilisation des systèmes intelligents. En s’appuyant par exemple sur des « boîtes à outils de déconstruction », ils pourraient faire débattre leurs élèves sur les risques d’usage. En effet, les jeunes n’abordent pas tous le numérique de la même façon. De ces séances cultivant l’intelligence collective pourraient émerger de bonnes pratiques prenant en compte des dimensions éthiques, des enjeux comme l’addiction aux machines… Par ailleurs, il existe plusieurs pratiques à imaginer au sein des établissements pour aller au devant des biais des IA. Ces derniers pourraient, par exemple, être « traqués » via une mutualisation des expériences classe par classe : des lycéens de chaque classe déposeraient, dans un « repository », des images ou des textes biaisés afin que l’ensemble des élèves travaillant sur un même sujet en prennent connaissance.