Comment les acteurs de l’éducation doivent-ils comprendre l’intelligence artificielle avant de pouvoir l’enseigner ? Cette question, qui est au cœur de la recherche en matière d’IA, est l’objet d’un document publié par le ministère de l’éducation nationale en janvier. Celui-ci dresse un état des lieux sur les approches, les enjeux et les applications de l’IA en éducation.
Mieux comprendre l’IA
Les nouvelles technologies bouleversent les manières d’enseigner et d’apprendre et posent de nombreuses questions d’ordre éthique. Alors que leur évolution est difficile à prévoir, de premières pistes de travail pour former à l’IA et l’enseigner sont explorées. Dans un document intitulé « Intelligence artificielle et éducation : apports de la recherche et enjeux pour les politiques publiques » et publié en janvier, le ministère de l’Éducation tente d’apporter des éléments de réponse pour mieux comprendre l’IA et appréhender ses enjeux.
Tenir compte de l’impact sociétal de l’IA
Le document reprend des pistes de réflexion proposées par AI4K12, initiative parrainée par l’Association for the advancement of artificial intelligence (AAAI) et la Computer science teachers association connect (CSTA). Selon cette dernière, différents éléments sont à prendre en considération pour mieux adopter l’intelligence artificielle. Parmi elles, la représentation et le raisonnement : il s’agit de comprendre que les agents d’IA entretiennent des représentations du monde via des structures de données et les utilisent pour raisonner via des algorithmes, mais sans penser comme un humain. Les acteurs doivent également tenir compte de l’impact sociétal de l’IA, qui peut être à la fois positif et négatif. Si les acteurs doivent en être conscients, c’est parce que ces technologies « changent leurs façons de travailler et de communiquer ».
Un « cadre de compétences » pour un bon usage de l’IA
Le document propose également un « cadre de compétences de la littératie en IA ». Il s’agit ici de reconnaître l’IA, c’est-à-dire les artefacts technologiques qui utilisent ou non l’IA, et d’analyser par la discussion critique les caractéristiques qui rendent une entité « intelligente ». Dans ce cadre, la pratique d’interdisciplinarité est importante car « il existe de nombreuses façons de penser et de développer des machines « intelligentes » ». Par ailleurs, les acteurs doivent prendre conscience des forces et des faiblesses de l’IA afin de « déterminer quand il est pertinent d’utiliser l’IA et quand il faut faire appel aux compétences humaines ». Autre compétence à développer : l’interprétation critique des données afin de pouvoir « décrire comment les exemples d’entraînement fournis pour un ensemble de données initial peuvent affecter les résultats d’un algorithme ». Enfin, une attention doit être portée sur les principales questions éthiques entourant l’IA : vie privée, désinformation, prise de décision, diversité, partialité, transparence et responsabilité.
Les cinq piliers d’un parcours de formation à l’IA
Parce qu’il reste difficile de prévoir l’évolution des technologies, la construction d’un programme de formation sur l’IA est encore hors de portée. Colin de la Higuera (professeur en informatique à l’Université de Nantes) et François Bocquet (chef de projet à la Direction du numérique pour l’éducation) émettent toutefois l’idée d’un parcours qui pourrait reposer sur cinq piliers :
- L’incertitude et l’aléatoire : les données sont incohérentes et ne démontrent pas une nature causale ;
- Le codage et le calcul, qui font partie des programmes d’études de nombreux pays ;
- La sensibilisation aux données, via des activités où elles sont visualisées et manipulées ;
- La pensée critique, qui repose sur une « compréhension du fonctionnement de la technologie » ;
- L’humanisme post-IA : l’idée clé est que les progrès de l’IA nous font reconsidérer, en tant qu’êtres humains, certaines vérités de base.
Enfin, le document propose un MOOC et un manuel destinés aux enseignants pour acquérir une connaissance générale de l’IA.