
plus de 600 cas d'hallucinations juridiques sont répertoriés rien qu'aux États-Unis
La justice californienne vient de rendre une décision inédite : un avocat a été condamné à payer 10 000 dollars pour avoir déposé un mémoire truffé de citations inventées par ChatGPT. Cette sanction marque un tournant dans l’usage des outils d’intelligence artificielle dans les tribunaux américains et pourrait inspirer de nouvelles régulations à l’échelle internationale. C’est une situation qui vient étendre une longue liste de cas similaires et qui soulève la question de la pertinence de la mise à contribution de tels outils dans d’autres domaines, notamment, celui du génie logiciel. En effet, de récentes études font état de ce que la production d’informations erronées par les modèles d’intelligence artificielle ira croissant avec leur degré de sophistication.
L’avocat Amir Mostafavi, basé en Californie, s’est retrouvé au centre d’un scandale professionnel après avoir remis un mémoire d’appel dans lequel 21 des 23 citations juridiques étaient purement inventées. Ces références provenaient de ChatGPT, utilisé pour gagner du temps dans la rédaction. Problème : Mostafavi n’a pas pris la peine de vérifier la validité des sources avant de soumettre le document à la cour. Sa cliente est Sylvia Noland, qui a fait appel d'un jugement sommaire rendu par le juge Stephen I. Goorvitch de la Cour supérieure de Los Angeles en faveur des défendeurs Land of the Free, L.P. et Jose Luis Nazar.
L’affaire a immédiatement attiré l’attention des juges de la Cour d’appel du 2ᵉ district de Californie, qui ont dénoncé une atteinte grave à l’intégrité de la procédure. Le tribunal a estimé que l’avocat avait « fait perdre un temps précieux au système judiciaire et aux contribuables », tout en rappelant un principe fondamental : un avocat reste entièrement responsable du contenu qu’il signe, quel que soit l’outil utilisé pour le produire. Il a également condamné l'avocat a payé une amende de 10 000 dollars.

Lee Smalley Edmon, Présidente de la Cour d'appel de Californie, deuxième district d'appel
Malgré la multiplication des règles relatives à l'IA au sein des tribunaux...
L’épisode Mostafavi illustre parfaitement le problème bien connu des hallucinations d’IA. Ces erreurs surviennent lorsque le modèle, au lieu de reconnaître ses limites, génère une réponse fausse mais convaincante, en inventant par exemple des décisions de justice inexistantes.
Dans un secteur où la précision est cruciale, ces hallucinations peuvent avoir des conséquences désastreuses. Selon des chercheurs de Stanford, les IA génératives produisent encore trop fréquemment de telles erreurs pour être utilisées sans garde-fous dans un contexte légal.
Le danger est double : d’un côté, des avocats peu formés aux limites techniques de ces outils risquent de les employer comme des moteurs de recherche fiables ; de l’autre, les tribunaux s’exposent à une surcharge de travail pour vérifier et corriger ces erreurs.
Pourtant, malgré les dizaines de juges fédéraux qui appliquent les ordonnances et les règles relatives à l'IA, les avocats continuent de déposer des documents judiciaires contenant des citations fictives.
Les avocats continuent de déposer des documents avec citations fictives : plus de 600 cas répertoriés aux États-Unis
En juin, un juge fédéral de Floride a exprimé son indignation face à un avocat qui avait soumis plusieurs documents générés par l'IA contenant de fausses citations de jurisprudence et de faux extraits.
Le même mois, les avocats du cabinet Butler Snow LLP ont déclaré devant un tribunal fédéral de l'Alabama que les fausses citations de jurisprudence générées par l'IA dans deux dossiers constituaient un « événement isolé » et que le cabinet avait révisé ses politiques et procédures afin d'éviter que de tels incidents ne se reproduisent.
Des avocats ont récemment déclaré qu'ils n'étaient pas surpris que les juges fédéraux continuent à émettre des ordonnances et des directives sur l'utilisation de l'IA générative, car les avocats continuent à soumettre des documents judiciaires contenant de fausses citations de jurisprudence.
Katherine Forrest, associée chez Paul Weiss Rifkind Wharton & Garrison LLP et présidente du groupe IA du cabinet, a déclaré que ce qui était plus surprenant, c'était que tant d'avocats soient prêts à soumettre aux tribunaux des recherches juridiques générées par l'IA sans en vérifier les résultats. « Cela suggère non seulement qu'ils font preuve d'une confiance excessive, car il peut encore y avoir des hallucinations, mais aussi qu'ils n'écoutent pas vraiment et ne comprennent pas les tribunaux lorsqu'ils disent : "Non, nous sommes vraiment sérieux à ce sujet" », a-t-elle déclaré. Katherine Forrest a été juge fédérale à New York pendant sept ans.
Un autre outil de suivi des cas où des avocats citent des autorités juridiques inexistantes en raison de l'utilisation de l'IA a identifié 52 cas de ce type en Californie et plus de 600 dans tout le pays. Ce nombre devrait augmenter dans un avenir proche, car l'innovation en matière d'IA devance la formation des avocats, a déclaré Nicholas Sanctis, étudiant en droit à la Capital University Law School dans l'Ohio.
Air Canada s’est ainsi vu obligé de respecter une politique de remboursement inventée par un chatbot intégré à son site web
Le jour où la grand-mère de Jake Moffatt est décédée, ce dernier s'est à l’immédiat rendu sur le site Web d'Air Canada pour réserver un vol de Vancouver à Toronto. Ne sachant pas comment fonctionnent les tarifs d'Air Canada pour les personnes en deuil, Moffatt a demandé au chatbot d'Air Canada de lui expliquer. Ce dernier a fourni des informations inexactes, encourageant Jake Moffatt à réserver un vol à l’immédiat, puis à demander un remboursement dans les 90 jours. Une recommandation en contradiction avec la politique de la compagnie aérienne qui stipule qu’elle ne procède pas à des remboursements une fois que la réservation est effectuée.
Jake Moffatt a donc porté plainte en joignant une capture d’écran de sa conversation avec le chatbot : « Si vous devez voyager à l’immédiat ou si vous avez déjà voyagé et que vous souhaitez soumettre votre billet pour bénéficier d'un tarif réduit pour les personnes en deuil, veuillez le faire dans les 90 jours suivant la date d'émission de votre billet en remplissant notre formulaire de demande de remboursement de billet. »
Le tribunal a au final tranché que Moffatt a droit à un remboursement partiel de 650,88 dollars canadiens (environ 398 euros) sur le prix initial du billet qui était de 1 640,36 CAD (environ 1 0003 euros), ainsi qu'à des dommages-intérêts supplémentaires pour couvrir les intérêts sur le billet d'avion et les frais de justice de Moffatt.
Air Canada a décidé de se conformer à la décision et de considérer l'affaire comme close après avoir refusé d’endosser la responsabilité de l’erreur commise par le chatbot intégré à son site web. La compagnie aérienne a ensuite procédé à la désactivation de ce dernier.
L'IA a secrètement contribué à la rédaction de l'examen du barreau de Californie, suscitant un tollé.
Près de deux mois après que des centaines de futurs avocats californiens se sont plaints que leur examen du barreau était entaché de problèmes techniques et d'irrégularités, l'organisme chargé de délivrer les autorisations d'exercer a provoqué une nouvelle vague d'indignation en admettant que certaines questions à choix multiples avaient été élaborées à l'aide d'une intelligence artificielle.
Le barreau de Californie a révélé qu'il avait utilisé l'IA pour élaborer une partie des questions à choix multiples de l'examen du barreau de février 2025, ce qui a suscité l'indignation des enseignants des facultés de droit et des candidats à l'examen. Cet aveu intervient après des semaines de plaintes concernant des problèmes techniques et des irrégularités lors de l'administration de l'examen, rapporte le Los Angeles Times.
Le barreau de l'État a révélé que son psychométricien (la personne ou l'organisation compétente pour administrer des tests psychologiques), ACS Ventures, avait créé 23 des 171 questions à choix multiples notées avec l'aide de l'IA. Quarante-huit autres questions provenaient d'un examen destiné aux étudiants en première année de droit, tandis que Kaplan Exam Services a élaboré les 100 questions restantes.
Le barreau de l'État a défendu ses pratiques, déclarant au LA Times que toutes les questions avaient été examinées par des groupes de validation du contenu et des experts en la matière avant l'examen. « Les questions de l'AEC ont été élaborées avec l'aide de l'IA et ont ensuite été examinées par des groupes de validation du contenu et un expert en la matière avant l'examen », a écrit la directrice exécutive du barreau de l'État, Leah Wilson, dans un communiqué de presse.
Une tendance mondiale : l’IA dans le viseur des tribunaux
La Californie n’est pas seule à affronter ce dilemme. Aux États-Unis, plusieurs cas d’avocats ayant présenté de fausses références générées par IA ont déjà été médiatisés. À New York, deux avocats avaient été sanctionnés en 2023 pour un cas similaire. En Europe, certaines juridictions commencent aussi à s’inquiéter de l’usage croissant d’outils génératifs dans la production de documents légaux.
Cette situation reflète un paradoxe : alors que l’IA est présentée comme une solution pour améliorer la productivité et l’accessibilité de la justice, elle introduit en parallèle de nouveaux risques éthiques et procéduraux.
Sources : opinion de la juge (affaire Noland v. Land of the Free, L.P. 9/12/25 CA2/3), utilisation de l'intelligence artificielle générative par les magistrats, suivi interactif des hallucinations juridiques de GenAI
Et vous ?




Voir aussi :



Vous avez lu gratuitement 294 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.