Ce n’est pas la première fois que l’Unesco alerte sur le rythme trop rapide de déploiement de l’IA à l’école. Suite à la parution, en juin, d’un document pointant l’absence de mécanismes de contrôle de l’IA dans l’éducation, l’organisme a publié, début septembre, un guide formulant des recommandations à destination de l’ensemble des acteurs impliqués.
Les outils d’IA générative accessibles au public se répandent à une vitesse vertigineuse, laissant les établissements d’enseignement peu préparés à la prise de recul et à la validation des outils. Cela est d’autant plus préoccupant en l’absence de réglementations nationales assurant notamment des approches d’usages centrées sur l’homme. C’est ce sur quoi insiste l’Unesco dans un guide paru en septembre dans le cadre de son initiative sur l’IA et les futurs de l’apprentissage. Pour l’organisation mondiale, la transformation de l’éducation et de la recherche qui pourrait être déclenchée par l’IA générative doit être pilotée par des mécanismes de contrôle rigoureux.
Les principaux points de vigilance
L’Unesco appelle les chercheurs, les enseignants et les apprenants à être pleinement acteurs des usages de l’IA. Ils devraient, en particulier, adopter une « vision critique » des valeurs et des normes culturelles intégrées et véhiculées par les modèles de l’IA générative. Surtout, ils doivent être conscients de l’absence de réglementations appropriées pour protéger la propriété intellectuelle des institutions et des individus et les droits des utilisateurs. « Les chercheurs, les enseignants et les apprenants doivent connaître les droits des propriétaires de données et vérifier si les outils de l’IA générative qu’ils utilisent contreviennent aux réglementations nationales en vigueur », précise le guide. Par ailleurs, les acteurs de l’éducation doivent savoir que les contenus (images, textes…) que créent et partagent les utilisateurs sur Internet peuvent être exploités par d’autres IA. Fonctionnant comme des « boîtes noires », les IA empêchent de savoir pourquoi un contenu particulier a été généré. Cette opacité de fonctionnement de l’IA tend à « enfermer les utilisateurs » dans la logique définie par les paramètres conçus dans ces systèmes. « Or, ces paramètres peuvent refléter des valeurs culturelles ou commerciales spécifiques et des normes qui biaisent implicitement le contenu produit. » C’est la raison pour laquelle l’Unesco appelle l’ensemble des acteurs à prendre conscience du fait que l’IA générative est capable de produire du « matériel offensant » et non-éthique.
Régulation politique
Réglementer l’IA pour en exploiter les avantages potentiels pour l’éducation et la recherche nécessite le développement de politiques appropriées. L’Unesco propose justement des mesures qui peuvent être prise en vue de développer des cadres propices à des usages responsables et éthiques.
- La promotion de l’inclusion et de la diversité culturelle et linguistique, notamment via l’élaboration de mesures dans les spécifications des systèmes d’IA ;
- La protection de l’agentivité humaine. Il s’agit notamment de protéger la « motivation intrinsèque » des apprenants à grandir et apprendre en tant qu’individus autonomes ;
- La surveillance et la validation des systèmes IA adoptés dans le monde de l’éducation. L’Unesco appelle les acteurs politiques à procéder à des validations strictes et éthiques des outils avant leur adoption officielle ;
- Le développement de compétences liées à l’IA, notamment auprès des apprenants ;
- L’accompagnement des enseignants et des chercheurs aux usages de l’IA ;
- La promotion de la pluralité des opinions ;
- Le test d’applications pertinentes de l’IA. Il s’agit d’établir des critères basés sur des preuves d’efficacité pédagogique, d’inclusion et de promotion de la diversité culturelle ;
- Enfin, l’examen – qui doit être intersectoriel et interdisciplinaire – des implications à long terme des usages de l’IA dans l’éducation.