Publié le 13 février 2026 à 00h03. Des algorithmes utilisés par les services de probation néerlandais pour évaluer le risque de récidive des délinquants se sont avérés défectueux, soulevant des questions sur la fiabilité des décisions judiciaires et le respect des droits des individus.
- L’Inspection de la Justice et de la Sécurité a révélé que les algorithmes utilisés pour calculer le risque de récidive sont entachés d’erreurs dans environ un cas sur cinq.
- Le modèle Oxrec, l’un des algorithmes utilisés, ne respecte pratiquement aucune des normes gouvernementales en matière d’algorithmes et repose sur des données obsolètes provenant de la Suède.
- Les services de probation ont suspendu l’utilisation de ces modèles et lancé un examen de leur utilisation.
Les conclusions d’un rapport accablant de l’Inspection de la Justice et de la Sécurité mettent en lumière de graves lacunes dans les outils utilisés par les services de probation néerlandais pour évaluer le risque de récidive des délinquants. Jessica Westerik, directrice des services de probation, a réagi à ce rapport dans l’émission Heure des nouvelles, reconnaissant la nécessité d’un « rattrapage » en matière d’utilisation correcte des algorithmes.
Environ 48 000 fois par an, les services de probation fournissent aux juges une évaluation du risque qu’une personne commette à nouveau une infraction pénale, une information qui peut influencer de manière significative les décisions concernant la libération conditionnelle ou la durée de la peine. L’exactitude de ces évaluations est donc cruciale.
Le rapport d’inspection révèle que le modèle Oxrec, l’un des algorithmes utilisés, présente de nombreuses failles. Des formules cruciales ont été mal combinées, les problèmes liés à la toxicomanie n’ont pas été correctement pris en compte et les troubles mentaux graves ont été ignorés. De plus, le modèle s’appuie sur des données obsolètes provenant de détenus suédois, ce qui soulève des doutes quant à sa pertinence pour la population néerlandaise.
Cynthia Liem, professeure associée à la TU Delft, spécialisée dans l’utilisation responsable de l’intelligence artificielle et des algorithmes, estime qu’il est « très douteux » qu’un ensemble de données conçu pour prédire le comportement de la population suédoise puisse être appliqué aux Pays-Bas. Elle juge « embarrassant » que le modèle n’ait jamais été correctement mis en œuvre ni vérifié au cours des dernières années, attribuant ce problème à une confiance excessive dans les modèles informatiques.
« Il s’agit de l’un des rapports les plus douloureux que nous ayons vus ces dernières années. »
Sven Stevenson, autorité néerlandaise de protection des données
Les services de probation ont suspendu l’utilisation des modèles défectueux et mis en place un programme pour examiner l’utilisation de ces instruments d’évaluation des risques. L’inspection estime que, dans la majorité des cas d’erreurs, le risque de récidive a été jugé trop faible, ce qui pourrait potentiellement compromettre la sécurité publique. À l’inverse, une surestimation du risque pourrait entraîner des peines plus sévères pour les suspects ou les personnes condamnées.
Interrogée sur la possibilité que des individus aient été libérés prématurément ou sanctionnés plus sévèrement en raison de ces évaluations erronées, la directrice Westerik a reconnu qu’elle ne pouvait pas exclure cette possibilité, tout en estimant que les chances étaient « très faibles ».
Le rapport soulève également des préoccupations concernant la discrimination potentielle. L’autorité néerlandaise de protection des données a déjà mis en garde, en 2020, contre les éléments discriminants présents dans l’algorithme Oxrec. Ce modèle prenait en compte des caractéristiques telles que le code postal et le revenu, ce qui pouvait indirectement conduire à un profilage ethnique. Westerik a déclaré que les services de probation avaient pris ce signal « très au sérieux » à l’époque, estimant alors qu’il existait suffisamment de preuves scientifiques pour justifier l’utilisation de ces facteurs.
Cependant, l’Institut néerlandais des droits de l’homme a également interdit, un an plus tard, de prendre en compte ces caractéristiques sans une justification adéquate, une justification qui manquait dans ce cas. « Nous n’en avons pas fait assez, c’est vrai », a admis Westerik.
La directrice Westerik reconnaît un manque de connaissances au sein de son organisation concernant les algorithmes et leur maintenance. « Nous devons améliorer cela et nous le ferons », a-t-elle déclaré, tout en soulignant que le travail de probation repose avant tout sur le jugement professionnel des employés.