Publié le 15 octobre 2025 06:16:00. Un avocat de l’Alabama a été sévèrement réprimandé par un juge fédéral pour avoir utilisé des citations juridiques inventées par une intelligence artificielle dans un dossier pénal. La sanction souligne les risques croissants liés à l’usage non vérifié des outils d’IA dans la profession juridique.
James A. Johnson, avocat basé dans le sud de l’Alabama, a reçu une réprimande publique et plusieurs sanctions de la part d’un tribunal fédéral pour avoir soumis une requête contenant des références juridiques entièrement fabriquées. Le juge Terry Moorer a ordonné cette sanction suite à la découverte que M. Johnson avait utilisé le plugin « Ghostwriter Legal » pour Microsoft Word, un outil basé sur ChatGPT, sans vérifier l’exactitude des « citations » générées.
Le magistrat a souligné dans sa décision que le recours inapproprié à l’intelligence artificielle générative pose un problème persistant au sein de la communauté juridique, malgré la notoriété de la capacité de ces outils à « halluciner » et à inventer des cas. « D’une manière ou d’une autre, le message n’a toujours pas été martelé alors que l’épidémie de citation de faux cas continue sans relâche », a écrit le juge Moorer.
Les sanctions infligées à James A. Johnson sont multiples. Outre la réprimande publique, il a été référé au comité consultatif du district sud de l’Alabama pour un éventuel retrait du barreau. Il a également été condamné à une amende de 5 000 $ payable au fonds CJA (Criminal Justice Act), qui finance les avocats commis d’office. L’affaire a été portée à l’attention du tribunal par le client de M. Johnson, qui avait demandé le remplacement de son avocat.
Dans une déclaration à AL.com, M. Johnson a estimé que le juge Moorer avait outrepassé son autorité en imposant des sanctions punitives pour ce qu’il considère comme une simple erreur. Il a annoncé son intention de faire appel de la portée de ces sanctions.
Le juge Moorer a justifié la sévérité des sanctions en soulignant la nature de l’affaire. « La Cour note que la majorité des cas impliquant des cas d’hallucinations d’IA concernent des litiges civils et que le préjudice y est certainement grand », peut-on lire dans l’ordonnance. « Mais il s’agit d’une affaire pénale dans laquelle l’accusé avait un avocat commis d’office qui est payé conformément à la CJA et qui sont des fonds publics. » Il a ajouté que cette situation entraînait une augmentation significative des coûts, obligeant un nouvel avocat à repartir de zéro, avec un préjudice non négligeable pour les ressources publiques limitées.
En juillet, James A. Johnson avait présenté ses excuses au tribunal, à la partie adverse et à son client, qualifiant l’incident d' »erreur embarrassante… commise sous la pression du temps et des circonstances personnelles difficiles ». Il a expliqué avoir utilisé « Ghostwriter Legal » pour déposer une requête le 3 juillet, juste avant un week-end férié, la conférence préalable au procès de son client dans une affaire de fraude financière ayant été avancée. Normalement utilisateur de Fastcase, un outil fourni par le barreau de l’Alabama, il a regretté avoir succombé à la tentation d’un nouveau programme disponible, travaillant depuis son ordinateur portable alors qu’il se trouvait dans un hôpital hors de l’État pour s’occuper d’un proche convalescent.
« Lorsque j’ai utilisé Ghostwriter, l’idée que les résultats de recherche, qui semblaient authentiques, pouvaient être complètement inventés ne m’est même jamais venue à l’esprit », a-t-il déclaré, attribuant cette naïveté à sa méconnaissance des capacités de l’IA. Il a affirmé qu’une telle erreur ne se reproduirait plus.
Le procureur américain avait relevé qu’il semblait déroutant que M. Johnson nie avoir utilisé ChatGPT alors que les informations du logiciel « Ghostwriter Legal » indiquaient clairement son utilisation comme programme d’IA par défaut. Le juge Moorer a réaffirmé que, qu’il en ait été conscient ou non, la responsabilité de vérifier l’exactitude des citations revenait à M. Johnson.
« En termes simples, la communauté juridique est bien consciente des dangers et des pièges liés à l’utilisation de raccourcis IA sans examen ni supervision supplémentaires », stipule l’ordonnance. « La Cour ne dit pas que l’IA n’a pas sa place dans la pratique du droit. L’IA peut absolument être un outil utile. Mais dans le même domaine que la supervision du travail d’un subordonné ou la vérification des citations trouvées indirectement, un avocat est absolument responsable des citations et des soumissions aux tribunaux. »