
les juges sont submergés par de fausses affaires hallucinées par l'IA
L’introduction de l’IA dans les tribunaux marque une évolution majeure du fonctionnement de la justice. Les juges et les avocats s'appuient de plus en plus sur l'IA, ce qui suscite de nombreuses inquiétudes. Un expert a déclaré qu'il est « effroyablement probable » que de nombreux tribunaux américains ne tiennent pas compte des hallucinations de l'IA. De nombreux avocats ont déjà été sanctionnés après avoir cité au tribunal de fausses affaires hallucinées par l'IA. Les experts craignent que les juges et les avocats se fient trop à l'IA et oublient ses limites, alors qu'elle reste une machine incapable d’assumer ses erreurs ou d’expliquer clairement ses décisions.
Un collège de trois juges de la cour d'appel de Géorgie, aux États-Unis, a annulé en juin 2025 une ordonnance qui semble être la première décision connue dans laquelle un juge s'est rangé du côté de quelqu'un qui s'est apparemment appuyé sur de fausses citations de cas générées par l'IA pour gagner un combat juridique. Ce qui a suscité un grand débat. L'ordonnance annulée a été rendue dans le cadre d'une affaire de divorce dans l'État américain.
L'un des juges de la cour d'appel de Géorgie, Jeff Watkins, a déclaré que l'ordonnance elle-même avait été rédigée par l'avocate du mari, Diana Lynch. Il s'agit d'une pratique courante dans de nombreux tribunaux, où les juges surchargés s'appuient traditionnellement sur les avocats pour rédiger les ordonnances.
Mais ce protocole fait aujourd'hui l'objet d'un examen approfondi, car les avocats et les non-avocats font de plus en plus appel à l'IA pour rédiger et rechercher des documents juridiques, et les juges risquent d'entériner de faux avis en n'examinant pas attentivement les citations générées par l'IA. La confiance aveugle dans les documents générés par l'IA, nonobstant les hallucinations et les biais algorithmiques, fait craindre un affaiblissement du rôle du juge.
Les dérives liés à l'introduction de l'IA générative dans les tribunaux
L'ordonnance erronée s'appuyait en partie sur « deux affaires fictives » pour rejeter la requête de l'épouse - dont Jeff Watkins a suggéré qu'elles étaient « peut-être des hallucinations inventées par l'IA » - ainsi que sur deux affaires qui n'avaient « rien à voir » avec la requête de l'épouse. Diana Lynch s'est vu infliger 2 500 $ de sanctions après que l'épouse a fait appel, et la réponse du mari semblait également avoir été préparée par son avocate.
La réponse citait 11 affaires supplémentaires qui étaient soit hallucinées, soit sans rapport avec le sujet. Le juge Jeff Watkins s'est en outre irrité du fait que « Diana Lynch ait étayé une demande d'honoraires d'avocat pour l'appel en citant l'une des nouvelles affaires hallucinées », écrivant que cela ajoutait « l'insulte à l'injure ». Fait inquiétant, le juge de la cour inférieur n'a pas été en mesure de confirmer si les faux cas avaient été générés par l'IA.
Il n'a pas non plus été capable de déterminer si l'avocate du mari, Diana Lynch, avait inséré les faux cas dans les documents déposés au tribunal, ce qui montre à quel point il peut être difficile pour les tribunaux de tenir les avocats responsables des hallucinations présumées de l'IA. Diana Lynch n'a pas répondu aux demandes de commentaire, et son site Web semble avoir été supprimé à la suite de l'attention portée par les médias américains à cette affaire.
« Nous n'avons aucune information sur la raison pour laquelle le mémoire de l'appelant cite à plusieurs reprises des affaires inexistantes et nous ne pouvons que spéculer sur le fait que le mémoire a peut-être été préparé par l'AI », a écrit le juge Watkins dans la décision de la cour d'appel de Georgie.
La cour d'appel a finalement renvoyé l'affaire, en partie parce que les fausses affaires l'ont empêchée d'examiner correctement la requête de l'épouse visant à annuler la décision précédente. Toutefois, quelle que soit l'issue de l'affaire en Géorgie, l'ordonnance initiale restera sans doute à jamais dans les mémoires comme un avertissement pour les juges qui sont de plus en plus scrutés pour leur incapacité à déceler les abus de l'IA dans les tribunaux.
L'IA générative pose un risque existentiel pour l’autorité judiciaire
Le juge Jeff Watkins a noté que « les irrégularités dans ces documents suggèrent qu'ils ont été rédigés à l'aide d'une IA générative », tout en avertissant que de nombreux préjudices découlent de la présentation de faux avis. La dénonciation des tromperies peut faire perdre du temps et de l'argent, et l'utilisation abusive de l'IA peut empêcher les gens de présenter leurs meilleurs arguments. Selon certains experts, l'IA prend la justice en otage.
Jeff Watkins affirme que les fausses ordonnances générées par l'IA peuvent également entacher la réputation des juges et des tribunaux et favoriser le « cynisme » dans le système judiciaire. Le juge Jeff Watkins a également averti que si l'on n'y prend garde, ces préjudices pourraient ouvrir la voie à un avenir où un « plaideur pourrait être tenté de défier une décision de justice en invoquant de manière fallacieuse des doutes quant à son authenticité ».
John Browning, juge à la retraite de la cinquième cour d'appel du Texas et aujourd'hui professeur de droit à plein temps à l'université Faulkner, a publié l'année dernière un article de droit, cité par le juge Jeff Watkins, qui mettait en garde contre les risques éthiques liés à l'utilisation de l'IA par les avocats.
Dans cet article, le professeur John Browning affirme que la principale préoccupation à ce stade est que les avocats utilisent l'IA générative pour produire un travail qu'ils considèrent comme un projet final, sans confirmer l'exactitude des informations qu'il contient ou sans appliquer leur propre jugement professionnel indépendant. Selon John Browning, « il est effroyablement probable que nous verrons plus d'affaires comme le litige de divorce en Géorgie ».
Il a noté : « il est probable que quelques citations hallucinées passent inaperçues, car, en général, les fausses affaires sont signalées en raison de la nature contradictoire du système juridique américain ». John Browning a déclaré que « les juges de première instance sont généralement très diligents pour repérer les cas où un avocat cite une autorité douteuse ou induit le tribunal en erreur sur ce qu'une affaire réelle a réellement dit ou représenté ».
Des avocats sanctionnés après avoir été induits en erreur par l'IA
Depuis l'avènement de ChatGPT, de nombreux avocats ont déjà été sanctionnés ou condamnés à payer une amende pour avoir cité de fausses affaires inventées par l'IA. En mai 2025, un jeune diplômé d’une école de droit a perdu son emploi après avoir utilisé ChatGPT pour l'aider à rédiger un dossier judiciaire qui s'est avéré truffé d'erreurs : de nombreuses citations erronées ainsi qu’au moins une affaire inexistante dans les bases de données juridiques.
En 2023, dans une affaire judiciaire inhabituelle, un avocat avait été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. L’avocat, Steven Schwartz, avait reconnu avoir utilisé ChatGPT pour compléter ses recherches juridiques, mais qu’il n’avait pas vérifié l’authenticité des sources. Il a été condamné à payer une amende de 10 000 dollars. Le tribunal lui avait également ordonné de suivre une formation sur l’éthique professionnelle.
À l'heure actuelle, alors que les avocats risquent d'être sanctionnés, renvoyés de leur cabinet ou suspendus de l'exercice de leur profession pour avoir cité de fausses affaires générées par l'IA, les juges ne risquent probablement que l'embarras pour ne pas avoir relevé les erreurs des avocats ou même pour avoir utilisé l'IA dans la recherche de leurs propres opinions. Cependant, tous les juges ne sont pas prêts à adopter l'IA sans un examen approfondi.
Pour protéger le système juridique, certains juges ont interdit l'IA. D'autres ont exigé la divulgation d'informations, certains exigeant même de savoir quel outil d'IA spécifique a été utilisé, mais cette solution ne s'est pas imposée partout. Même si tous les tribunaux exigeaient des divulgations, John Browning a souligné que ces divulgations ne constituaient pas une solution parfaite, car il pourrait être difficile pour les avocats de discerner s'ils ont utilisé l'IA.
En effet, les fonctions d'IA sont de plus en plus intégrées dans les outils juridiques les plus répandus. « Un jour, il pourrait devenir déraisonnable d'attendre" des avocats "qu'ils vérifient chaque résultat de l'IA générative. Plus probablement, comme l'a conclu un comité d'éthique judiciaire du Michigan, les juges détermineront le meilleur plan d'action pour leurs tribunaux avec l'utilisation croissante de l'IA », a déclaré le professeur John Browning.
Conclusion
Les experts alertent sur un problème sérieux : l’infiltration des hallucinations de l'IA dans la chaîne judiciaire américaine. L’intégration de l’IA dans les tribunaux peut représenter un progrès utile, à condition qu’elle reste un outil, mais jamais une autorité. Le véritable danger survient lorsque l’on accorde à la machine une confiance aveugle, en oubliant qu’elle peut produire des erreurs, reproduire des biais, et qu’elle n’est ni responsable ni transparente.
L’IA ne comprend pas la loi ni les enjeux humains qui l’accompagnent : elle exécute, sans juger. Il y a eu de nombreux cas de dérives avérés, comme dans l'affaire du divorce en Géorgie. Les experts craignent que les tribunaux n'acceptent de plus en plus les hallucinations de l'IA si aucun cadre clair n’est mis en place. C'est pourquoi il est essentiel que les magistrats, avocats et personnels judiciaires conservent une vigilance active.
Source : document judiciaire (PDF)
Et vous ?



Voir aussi



Vous avez lu gratuitement 221 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.