L’intelligence artificielle pour protéger les élèves du cyberharcèlement

Pinterest LinkedIn Tumblr +

Protéger les adultes et les enfants du fléau du harcèlement (qui touche 5 % des écoliers selon le ministère de l’Éducation), telle est la mission de Data For Ethic. Fondée par Aymen Khelifi et Sarah Louhichi, la solution, qui a été lauréate du salon VivaTech en 2024, se base sur une technologie brevetée d’apprentissage automatique.

Née en 2019 du constat que le fléau du cyberharcèlement gagnait en intensité, Data For Ethic est une technologie qui permet de sécuriser les réseaux sociaux. Via sa solution Netethic Education, elle protège les messageries intégrées dans les outils collaboratifs fournis par les écoles (Google Classroom, Teams, Zoom…), qui n’échappent pas non plus aux ravages du harcèlement. Les messageries intégrées aux ENT des établissements ne sont pas protégées : cela s’explique par le fait qu’il n’existe pas d’antivirus spécifique à la détection de termes pouvant constituer des attaques personnelles. « En tant qu’informaticien, je me suis dit qu’il était possible de combattre ce phénomène, qui peut dans certains cas conduire au décrochage scolaire, voire à des tentatives de suicide », indique Aymen Khelifi, co-fondateur.

Des algorithmes entraînés à l’analyse contextuelle

La solution, qui s’intègre aux environnements numériques des écoles sous forme de logiciel, permet d’identifier les contenus violents (textes, images et vidéos) et de prévenir les écoles suffisamment à l’avance, c’est-à-dire avant que n’apparaissent les effets délétères du harcèlement sur la santé mentale de la victime. « Notre intelligence artificielle se base sur des modèles intelligents d’apprentissage automatique qui n’analysent pas simplement des mots-clés mais également le contexte des échanges, qui peut indiquer l’existence d’un fait de harcèlement », précise-t-il. Par ailleurs, en plus de prévenir les référents harcèlement, l’outil met en relation les victimes avec des associations qui interviennent dans les écoles pour les aider. Si l’école le souhaite ou ne dispose pas d’outils collaboratifs en interne, elle peut demander à ce que la solution analyse les propos tenus par les élèves sur les pages publiques des réseaux sociaux (Twitter, TikTok, Facebook, etc.). Présente au sein de sept groupements d’écoles privées, Data For Ethic, dont la solution coûte 50 centimes par élève et par mois, travaille maintenant sur des projets de partenariat avec l’Éducation nationale.

Une solution qui protège aussi les salariés d’entreprise

S’il est plus insidieux et difficile à identifier, le même phénomène s’observe dans les entreprises. C’est la raison pour laquelle l’entreprise a développé DigitalEthique, une application d’analyse brevetée à l’échelle européenne qui détecte les contenus toxiques échangés entre les salariés. « Il ne s’agit pas des mêmes algorithmes utilisés pour les écoles. Les élèves échangent des propos crus et directs, faciles à détecter. Les adultes adoptent, quant à eux, des stratégies plus fines et un langage plus sophistiqué », explique Aymen Khelifi. Concrètement, l’entreprise a identifié 30 types de harcèlement, dont les plus connus sont le harcèlement lié à la race, au genre, à l’orientation sexuelle ou à la religion. « La solution repose sur des réseaux d’inférences crées par des algorithmes intelligents pour l’analyse des données. Notre algorithme ne détecte pas forcément des mots-clés et des occurrences unitaires, mais des phénomènes répétitifs qui s’amplifient avec le temps. Grâce à des modèles de machine learning et de deep learning, il permet de classifier et d’évaluer les risques psychosociaux », indique-t-il. Enfin, la technologie sauvegarde les preuves de harcèlement scannées dans un coffre fort, ce qui permet à la victime de prouver qu’elle fait l’objet d’une attaque.

Share.