Home Sciences et technologies Les délits numériques laissent des traces de données ; ces étudiants ont construit un outil pour aider à les expliquer

Les délits numériques laissent des traces de données ; ces étudiants ont construit un outil pour aider à les expliquer

0 comments 30 views

Publié le 27 février 2026 00:42:00. Des étudiants de l’Arizona State University ont développé un outil d’intelligence artificielle capable de traduire le jargon complexe de la cybercriminalistique en langage clair, afin de faciliter la compréhension des preuves numériques par les juges, les avocats et les jurés.

Dans les salles d’audience, la vérité repose souvent sur la manière dont une histoire est racontée. Mais lorsque cette histoire est tissée de valeurs hexadécimales, de systèmes de fichiers, de captures de paquets ou d’horodatages de métadonnées, même les magistrats les plus expérimentés peuvent avoir du mal à suivre le fil. Face à la complexité croissante des preuves numériques, un fossé se creuse entre les experts en cybercriminalistique et les professionnels du droit, compromettant parfois la justice.

Trois étudiants de l’École d’informatique et d’intelligence augmentée, qui fait partie des Écoles d’ingénierie Ira A. Fulton de l’Arizona State University, pensent avoir trouvé une solution : l’intelligence artificielle. Dans le cadre du cours CSE 598 Forensics Computing, qui combine cybersécurité, droit et enquêtes réelles, Ariadne Dimarogona, Aditi Ganapathi et Easton Kelso ont créé Legal Laysplainer, un système alimenté par l’IA conçu pour traduire les preuves cybercriminelles en un langage simple et accessible.

« La cybercriminalité est désormais inhérente à toute infraction impliquant la technologie », explique Easton Kelso, étudiant en cybersécurité qui prévoit d’obtenir sa maîtrise en mai. Qu’il s’agisse d’un ordinateur utilisé comme point d’attaque, d’un téléphone contenant des données de localisation cruciales ou d’un serveur enregistrant discrètement chaque étape d’une intrusion numérique, la criminalistique numérique consiste à reconstituer les événements à partir des données laissées sur place.

Ariadne Dimarogona, étudiante en informatique spécialisée en cybersécurité dans le cadre du programme CyberCorps : bourse d’études pour le service, souligne que la cybercriminalité n’est plus un domaine spécialisé. « La technologie est présente dans presque toutes les affaires aujourd’hui », affirme-t-elle. « Même les crimes qui ne sont pas considérés comme « cyber » reposent souvent sur des preuves numériques. »

Le problème, comme l’ont rapidement constaté les étudiants, ne réside pas tant dans la collecte des preuves numériques que dans leur explication. Lors d’échanges avec des agents du Bureau fédéral d’enquête de la division Phoenix et des officiers du Service de police de Scottsdale, ils ont appris que les témoignages d’experts sont de plus en plus fréquents, mais souvent difficiles à suivre pour les non-initiés.

« Les agents nous ont dit qu’ils étaient souvent appelés à témoigner en tant qu’experts », explique Kelso. « Mais les juges, les avocats et les jurés ont tous leur propre travail. Ce n’est pas leur rôle de comprendre le fonctionnement de la technologie comme un informaticien. »

Easton Kelso, étudiant en cybersécurité

Pour combler ce fossé, les experts recourent souvent à des métaphores, comparant les fichiers supprimés à des empreintes de pas dans le sable ou les paquets de données à des enveloppes dans le courrier. Cependant, ces explications demandent du temps, de l’expérience et l’accès à des spécialistes qualifiés, un luxe qui n’est pas toujours disponible.

C’est alors que les étudiants ont eu l’idée de combiner ce besoin avec les outils de l’intelligence artificielle, notamment les grands modèles linguistiques, pour rendre ces explications plus accessibles. Le résultat est Legal Laysplainer, un système de génération augmentée par récupération (RAG) qui s’appuie sur un grand modèle de langage existant, similaire à ChatGPT. L’IA ne se contente pas de générer des réponses à partir de ses données d’entraînement, mais récupère d’abord des informations dans une bibliothèque organisée de documents juridiques et médico-légaux vérifiés, puis construit son explication à partir de ces sources.

« Les gens sont sceptiques à l’égard de l’IA, et à juste titre », reconnaît Aditi Ganapathi, doctorante en informatique à la Fulton Schools, qui étudie les facteurs humains en cybersécurité. « Nous avons ancré notre système dans la documentation du Département américain de la Justice et de l’ Institut National de Justice, ainsi que dans des documents de cas antérieurs, afin qu’il ne s’agisse pas simplement d’inventer des choses. Nous voulions construire quelque chose auquel les experts pourraient avoir confiance. »

Les étudiants envisagent de nombreuses applications pour leur outil. Les avocats pourraient l’utiliser pour comprendre les preuves lorsqu’un expert n’est pas disponible, les juges pourraient s’y référer lors de l’examen des mandats, et les policiers pourraient l’exploiter pour mieux expliquer l’importance des détails techniques dans une enquête. Les policiers de Scottsdale ont même confié aux étudiants qu’ils avaient parfois du mal à justifier leurs mandats en raison du langage technique utilisé.

Pour évaluer leur système, l’équipe a même mis l’IA à l’épreuve en utilisant un second modèle de langage pour évaluer les explications de Legal Laysplainer, en vérifiant si elles étaient cohérentes, lisibles pour les non-techniciens et fidèles au matériel source. Ils prévoient également de mener des études sur des sujets humains pour évaluer la convivialité du système.

Ce projet illustre la manière dont les écoles Fulton forment la prochaine génération de professionnels de la cybersécurité grâce à un travail pratique et interdisciplinaire ayant des conséquences réelles. Il s’inscrit dans le cadre d’efforts plus larges menés par Gail Joon Ahn, un innovateur mondialement reconnu en matière de cybersécurité et professeur à la School of Computing and Augmented Intelligence, qui souhaite faire de la cybercriminalistique une partie intégrante et permanente du programme d’études de l’école.

« Mon objectif est de faire en sorte que les étudiants aillent au-delà de la théorie et s’attaquent à des défis de sécurité réalistes et pratiques qui reflètent les environnements du monde réel », explique Ahn. « Il a été incroyablement gratifiant de les voir s’attaquer à des problèmes importants de cybercriminalistique liés à la médecine légale et à l’IA. »

Face à la pénurie mondiale de main-d’œuvre en cybersécurité, des projets comme Legal Laysplainer permettent aux étudiants de développer des outils qui pourraient avoir un impact réel dans le monde. Ganapathi prévoit de terminer son doctorat et de poursuivre ses recherches avec Jaron Mink, professeur adjoint d’informatique et d’ingénierie à la Fulton Schools, afin de rendre les outils de cybersécurité plus utilisables et plus fiables grâce à l’apprentissage automatique. Kelso envisage de faire une transition vers l’industrie, tandis que Dimarogona assumera bientôt un rôle gouvernemental en matière de cybersécurité, apportant avec elle son point de vue sur les tribunaux.

Tous trois espèrent que Legal Laysplainer sera un jour testé par les experts qui les ont inspirés. « Si cela pouvait réellement être utilisé dans les salles d’audience, ce serait incroyable », conclut Kelso. Dans un système judiciaire de plus en plus façonné par les traces numériques, la clarté peut être aussi importante que le code, et la bonne explication au bon moment pourrait faire toute la différence.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.