
Un juge met en garde contre un risque pour la justice après que des avocats ont cité de faux cas générés par l'IA devant les tribunaux, avertissant que les avocats pourraient être poursuivis s'ils ne vérifient pas l'exactitude de leurs recherches. "L'intelligence artificielle est un outil qui comporte à la fois des risques et des opportunités", a déclaré la juge.
En 2023, dans le cadre d'un procès contre une compagnie aérienne aux États-Unis, l'avocat Steven Schwartz a cité six affaires fictives générées par ChatGPT. Il a fait référence à d'anciennes affaires judiciaires qu'il croyait réelles, mais qui avaient en effet été inventées par le chatbot d'IA. Il a reconnu avoir utilisé ChatGPT pour rechercher des jurisprudences pour les utiliser dans le cadre du procès intenté. Le juge a qualifié cette affaire d'inédite et de trompeuse, mais a également ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle.
Ce genre de cas était nouveau à l'époque, mais en 2025, l'utilisation de l'intelligence artificielle (IA) par des avocats est devenue courante. Cependant, ils ne sont pas à l'abri des "hallucinations", comme l'avocat Steven Schwartz. Dans le dernier exemple en date illustrant la manière dont les systèmes judiciaires du monde entier sont confrontés à la présence croissante de l'intelligence artificielle dans les tribunaux, la juge de la Haute Cour Victoria Sharp et son collègue Jeremy Johnson ont réprimandé des avocats dans deux affaires récentes.
Les avocats ont cité de faux cas générés par l'IA dans des procédures judiciaires en Angleterre, a déclaré la juge, avertissant que les avocats pourraient être poursuivis s'ils ne vérifiaient pas l'exactitude de leurs recherches. La juge a déclaré que l'utilisation abusive de l'IA avait "de graves implications pour l'administration de la justice et la confiance du public dans le système judiciaire".
La juge Victoria Sharp et son collègue Jeremy Johnson ont été invités à se prononcer après que des juges de première instance ont fait part de leurs inquiétudes concernant "l'utilisation présumée par des avocats d'outils d'intelligence artificielle générative pour produire des arguments juridiques écrits ou des déclarations de témoins qui ne sont ensuite pas vérifiés", ce qui conduit à la présentation d'informations erronées devant le tribunal.
Dans une décision rédigée par Sharp, les juges ont déclaré que dans un procès de 120 millions de dollars concernant une violation présumée d'un accord de financement impliquant la Banque nationale du Qatar, un avocat avait cité 18 affaires qui n'existaient pas. Le client dans cette affaire, Hamad Al-Haroun, s'est excusé d'avoir involontairement induit le tribunal en erreur avec de fausses informations produites par des outils d'IA accessibles au public, et a déclaré qu'il était responsable, plutôt que son avocat Abid Hussain. Mais la juge Sharp a déclaré qu'il était "extraordinaire que l'avocat se fie à son client pour l'exactitude de ses recherches juridiques, plutôt que l'inverse."
Dans l'autre affaire, un avocat a cité cinq fausses affaires dans le cadre d'une plainte déposée par un locataire contre le borough londonien de Haringey. L'avocate Sarah Forey a nié avoir utilisé l'IA, mais le juge Sharp a déclaré qu'elle n'avait "pas fourni au tribunal une explication cohérente de ce qui s'était passé."
Les juges ont renvoyé les avocats des deux affaires devant leurs organismes de réglementation professionnels, mais n'ont pas pris de mesures plus sévères. La juge Sharp a déclaré que le fait de fournir des documents faux en les faisant passer pour authentiques pouvait être considéré comme un outrage au tribunal ou, dans les « cas les plus graves », comme une entrave à la justice, passible d'une peine maximale d'emprisonnement à perpétuité.
Elle a déclaré dans son jugement que l'IA est une "technologie puissante" et un "outil utile" pour le droit. "L'intelligence artificielle est un outil qui comporte à la fois des risques et des opportunités", a déclaré la juge. "Son utilisation doit donc s'accompagner d'un niveau de surveillance approprié et s'inscrire dans un cadre réglementaire garantissant le respect de normes professionnelles et éthiques bien établies si l'on veut maintenir la confiance du public dans l'administration de la justice."
Cependant, tout le monde n'est pas aussi clément que la juge Sharp. En mai 2025, un jeune diplômé d’une école de droit a perdu son emploi après avoir utilisé ChatGPT pour l'aider à rédiger un dossier judiciaire qui s'est avéré truffé d'erreurs : de nombreuses citations erronées ainsi qu’au moins une affaire inexistante dans les bases de données juridiques. C’est une situation qui vient étendre une longue liste de cas similaires et qui soulève la question de la pertinence de la mise à contribution de tels outils dans la justice.
Source : La juge de la Haute Cour Victoria Sharp
Et vous ?


Voir aussi :



Vous avez lu gratuitement 26 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.