Comment l’AI Act affecte-t-il la sphère de la formation ?

Pinterest LinkedIn Tumblr +

Comme c’est le cas pour l’éducation, la réglementation européenne relative à l’intelligence artificielle, qui a été approuvée par l’UE le 21 mai 2024, encadre les usages de cette technologie dans la sphère de la formation professionnelle. Quels changements pour ces professionnels ? Réponses de Guillaume Letzgus, DG de l’organisme de formation Lefebvre Dalloz Compétences.

En matière de formation, quels outils sont considérés comme « risqués » par l’AI Act ?

Comme toutes les organisations qui fournissent ou utilisent des modèles d’IA au sein de l’UE, les organismes de formation sont concernés par cette réglementation. La formation professionnelle se situe dans le deuxième niveau de risques, à savoir le niveau « à haut risque ». Globalement, il existe 4 familles de systèmes d’IA considérés comme présentant des risques élevés. Il s’agit des systèmes d’IA permettant de déterminer l’accès ou l’admission de personnes physiques aux établissements de formation professionnelle ; des systèmes d’IA permettant d’évaluer le niveau de compétences des collaborateurs ; des systèmes d’IA permettant l’évaluation et le suivi des résultats des apprenants ; et les systèmes d’IA destinés à surveiller et détecter les potentielles triches et comportements interdits.

Quels changements de pratiques cela doit-il impliquer ?

L’AI Act prévoit de sécuriser les données en s’assurant de leur pertinence et de leur exactitude. Cela suppose de disposer d’une documentation technique et de mettre en place des mesures de supervision, de transparence et de cybersécurité. Les professionnels de la formation doivent ainsi développer des pratiques d’analyse précise et obligatoire des systèmes d’IA déployés au sein de leur entreprise. Le contrôle humain de l’IA est donc éminemment important. Par exemple, quand on parle d’évaluation des compétences par l’IA, il existe un risque important « d’hallucination » (fausse réponse présentée comme certaine), particulièrement lorsqu’il est question de chatbots qui analysent du langage naturel. Il est donc important de s’assurer de la qualité du service rendu à l’apprenant : celui-ci doit être aussi maîtrisé que dans le cadre d’un examen classique.

Quelles précautions les organismes doivent-ils prendre ?

Chez Lefebvre Dalloz, nous sommes un éditeur de contenus et nous construisons des technologies d’IA. Nous avons par exemple développé GenIA-L, une IA générative qui permet de poser des questions juridiques en langage naturel et d’obtenir des réponses basées sur l’intégralité des données de notre fonds. Il existe donc pour nous, en tant qu’éditeur, un risque de voir exploiter et réutiliser nos données. Face à ce type de risque, il faut construire des environnements technologiques sécurisés, sans s’interdire de recourir aux LLM (NDLR : grands modèles de langage) extra-européens les plus performants du marché, comme celui d’OpenAI. L’enjeu est de protéger cet environnement et d’être en complète maîtrise de la donnée. Pour y parvenir, nous avons construit des solutions internes qui tirent profit de l’intelligence de ces LLM mais sans y exporter la totalité de nos données.

Quels conseils donneriez-vous aux organismes de formation pour se préparer à cette législation ?

Il faut tout miser sur la sensibilisation de l’ensemble des équipes, l’accompagnement des formateurs et leur acculturation aux enjeux et aux risques d’usage. Au sein de notre groupe, les principaux ateliers que nous menons aujourd’hui ont pour objet la maîtrise des risques et le développement d’un regard critique sur l’IA. L’enjeu est d’allier sécurité d’usage et innovation, en tirant pleinement profit de ce qu’il est possible d’explorer grâce à l’IA. L’AI Act impose ainsi une véritable conduite du changement afin que ces technologies soient maîtrisées et contrôlées par des personnes bien formées. Car le plus grand danger que présente l’IA, notamment générative, est de penser qu’il s’agit d’une solution miracle dont les contenus générés ne nécessitent ni contrôle ni recul critique.

Share.