2e volet de l’AI Act : quelles conséquences pour les EdTech ?

Pinterest LinkedIn Tumblr +

Officiellement entré en vigueur le 2 août 2025 dans l’Union européenne, le deuxième volet de l’AI Act définit des obligations strictes pour les fournisseurs d’intelligences artificielles à usage général. En tant que fournisseurs d’IA, certaines EdTech françaises sont ainsi directement impliquées. Les éclairages d’Emilie Pesce, déléguée générale de l’Afinef.

Quelles sont les obligations qu’introduit le 2e volet de l’AI Act ?

Comme le RGPD, l’AI Act est le fruit d’une volonté de l’Union européenne de réguler la technologie pour protéger les droits fondamentaux des ressortissants européens. Le 2e volet, qui est le chapitre V de l’AI Act, pose un code de conduite et une obligation de transparence visant à réguler les modèles d’IA à usage général, les plus connus d’entre eux étant ChatGPT, Gemini ou Meta AI. Ces modèles doivent désormais tenir à jour une documentation technique (entraînement, tests), mettre à disposition des informations précises aux régulateurs et instances compétentes, assurer la conformité en matière de droits d’auteur (afin de stopper le pillage des données), garantir que les données utilisées pour l’entraînement sont légalement obtenues… Les fournisseurs d’IA doivent également publier un résumé des contenus d’entraînement, selon le modèle fourni par le Bureau européen de l’IA. Celui-ci appliquera des sanctions à partir du 2 août 2026 si ces obligations ne sont pas respectées. Les fournisseurs disposent donc d’une année pour se mettre en conformité.

À quelles exigences les EdTech sont-elles désormais soumises ?

Les entreprises françaises qui agissent pour l’éducation portent dans leur ADN la volonté de développer des outils qui respectent les droits fondamentaux des utilisateurs, d’autant plus que le public qu’elles ciblent est composé d’élèves mineurs. Les algorithmes qu’elles construisent sont développés dans un cadre de transparence, souvent en partenariat avec le monde de la recherche. L’engagement en faveur d’une IA transparente et respectueuse des utilisateurs fait ainsi déjà partie de leur culture. Le 2e volet de l’AI Act posera simplement pour elles des contraintes administratives, à l’image de l’obligation de conformité au RGPD. Globalement, des procédures de contrôle doivent être mises en place, de la documentation doit être rédigée au préalable et fournie aux autorités nationales compétentes – en France, ce sera la CNIL. C’est ce qu’on appelle la « compliance by design » (conformité intégrée dès la conception). Les EdTech qui bâtissent des services éducatifs sur de plus grands modèles existants, comme celui d’OpenAI, ne portent pas la responsabilité principale des obligations qui visent les fournisseurs. En revanche, la couche éducative qu’elles y ajoutent doit répondre aux exigences du texte (transparence envers les utilisateurs, gestion des données sensibles des élèves, etc.).

S’agit-il d’un frein supplémentaire pour les EdTech, qui doivent déjà surmonter des obstacles pour se lancer sur le marché de l’Éducation nationale ?

Non. À l’Afinef, nous envisageons ce cadre réglementaire comme un atout stratégique pour les entreprises françaises et européennes par rapport aux mastodontes de la Tech américaine ou chinoise. Il leur sera désormais possible de se prévaloir d’un gage de fiabilité, de transparence et d’éthique d’usage auprès des élèves, des enseignants et des familles. Il ne faut pas oublier que la sphère éducative est parmi les plus sensibles aux dérives d’usage en matière d’IA. L’AI Act propose justement une approche « par les risques » en distinguant quatre niveaux : les systèmes prohibés ; les systèmes à haut-risque ; les systèmes à risque limité et les systèmes à risque minimal. Un certain nombre de systèmes d’IA utilisés dans l’éducation ou la formation professionnelle sont, à juste titre, classés comme étant à « haut risque ». Par ailleurs, en France, le Cadre d’usage de l’intelligence artificielle en éducation, publié par le ministère de l’Éducation en juin 2025, énonçait déjà des directives d’usage afin que l’IA utilisée à l’école soit respectueuse des données personnelles et qu’elle se mette au service de la pédagogie. Je pense que l’IA Act va dans le même sens. Il répond même à plusieurs préoccupations : personne ne souhaite que les élèves se basent sur des IA discriminatoires pour choisir une filière professionnelle ou que les droits d’auteur ne soient pas respectés.

 

Share.