Kwark Education automatise la correction de copies

Pinterest LinkedIn Tumblr +

L’EdTech française Kwark Education veut faciliter la vie aux correcteurs d’examens. Son nouvel outil basé sur l’IA, Good Grades, est un assistant intelligent d’évaluation qui permet de réduire les coûts logistiques liés à l’organisation des examens ainsi que les biais qu’induit la correction de copies à la chaîne. Explications.

C’est une grande attente pour les professeurs : la technologie promet désormais de les aider àpiloter la correction répétitive de copies d’examen qui s’enchaînent par centaines. Très chronophage, celle-ci induit en effet plusieurs types d’erreurs pénalisantes pour les étudiantset les apprenants. Pour répondre à cette problématique, l’EdTech Kwark Education lance, en partenariat avec la société Good Grades, un service éponyme qui permet de faciliter les processus d’évaluation et de résorber les biais liés à la correction de copies à la chaîne. « Au bout de la Xe copie corrigée, le professeur tend à pénaliser les rendus en fonction de la qualité de ceux qui les ont précédés. Pour éliminer ces facteurs d’impartialité, la solutionpermettra de réguler ces biais naturels », a expliqué Stefan Crisan, CEO Good Grades – Kwark Education, dans le cadre d’un webinaire organisé par MyConnecting.

Alléger le travail des professeurs

L’ambition de ce nouvel outil, qui devrait être commercialisé cette année, est de faire des évaluations une véritable modalité pédagogique permettant à l’ensemble des acteurs (professeurs, formateurs, étudiants) de réaliser des bilans de connaissances et de compétences plus pertinents. Concrètement, l’outil permet la réalisation de l’examen sur la plateforme Good Grades, qui peut être connectée au LMS et aux outils d’anti-plagiat de l’établissement. Il aide à la conception des évaluations par l’enseignant (énoncé, corrigé-type, date et durée de l’épreuve…) et assure les corrections, les notes étant associées à des indices de confiancestatistiques qui servent à la vérification de la fiabilité des réponses. Il transmet ensuite à l’enseignant les questions qui restent à corriger et à commenter. Il génère, enfin, des feedbacks automatisés aux étudiants, aux concepteurs de module, aux directeurs de programmes et à la direction de l’établissement. Le tout avec des éléments statistiques « nécessaires à la bonne gestion pédagogique et administrative ». « Si nous avons tenu à faire en sorte que l’outil puisse générer des rapports d’évaluation circonstanciés à destination des étudiants, c’est pour les aider à mieux s’auto-positionner dans leur parcours », indique Stefan Crisan. La société entend aussi constituer des bibliothèques d’examens visant à « inspirer » les professeurs et à leur faciliter la conception de nouveaux examens.

Des premiers tests encourageants

Laurent Aléonard, directeur académique délégué de l’École de management Léonard de Vinci(EMLV), teste actuellement l’outil. Si, pour lui, l’enseignant doit rester maître de la conception de l’évaluation, la machine peut harmoniser ces processus pour limiter les biais liés à la diversité des intervenants dans la correction. Les premiers tests sont encourageants : les équipes de l’EMLV ont constaté que le processus utilisé dans le système d’aide est le même que le processus usuel que l’école mobilise dans la conception et les méthodologiesd’évaluation : « Lenseignant ne se fait pas « tordre le bras » par la machine. Nous avonsplutôt demandé à nos professeurs de nous envoyer des corrigés-type, sur lesquels nous nous sommes basés pour paramétrer l’outil. » Les cas d’usage ont concerné à la fois des évaluations calculatoires (dans le cadre d’examens de contrôle budgétaire) et des évaluations de dissertations comprenant des argumentaires basés sur des concepts enseignés en classe. « La modélisation de ce type de corrections a pu être facilitée, notamment via la détection derreurs que génèrent souvent les corrections manuelles », a-t-il témoigné.

Share.