La justice californienne vient de rendre une décision inédite : un avocat a été condamné à payer 10 000 dollars pour avoir déposé un mémoire truffé de citations inventées par ChatGPT. Cette sanction marque un tournant dans l’usage des outils d’intelligence artificielle dans les tribunaux américains et pourrait inspirer de nouvelles régulations à l’échelle internationale. C’est une situation qui vient étendre une longue liste de cas similaires et qui soulève la question de la pertinence de la mise à contribution de tels outils dans d’autres domaines, notamment, celui du génie logiciel. En effet, de récentes études font état de ce que la production d’informations erronées par les modèles d’intelligence artificielle ira croissant avec leur degré de sophistication.L’avocat Amir Mostafavi, basé en Californie, s’est retrouvé au centre d’un scandale professionnel après avoir remis un mémoire d’appel dans lequel 21 des 23 citations juridiques étaient purement inventées. Ces références provenaient de ChatGPT, utilisé pour gagner du temps dans la rédaction. Problème : Mostafavi n’a pas pris la peine de vérifier la validité des sources avant de soumettre le document à la cour. Sa cliente est Sylvia Noland, qui a fait appel d'un jugement sommaire rendu par le juge Stephen I. Goorvitch de la Cour supérieure de Los Angeles en faveur des défendeurs Land of the Free, L.P. et Jose Luis Nazar.
L’affaire a immédiatement attiré l’attention des juges de la Cour d’appel du 2ᵉ district de Californie, qui ont dénoncé une atteinte grave à l’intégrité de la procédure. Le tribunal a estimé que l’avocat avait « fait perdre un temps précieux au système judiciaire et aux contribuables », tout en rappelant un principe fondamental : un avocat reste entièrement responsable du contenu qu’il signe, quel que soit l’outil utilisé pour le produire. Il a également condamné l'avocat a payé une amende de 10 000 dollars.
Lee Smalley Edmon, Présidente de la Cour d'appel de Californie, deuxième district d'appel
Malgré la multiplication des règles relatives à l'IA au sein des tribunaux...
L’épisode Mostafavi illustre parfaitement le problème bien connu des hallucinations d’IA. Ces erreurs surviennent lorsque le modèle, au lieu de reconnaître ses limites, génère une réponse fausse mais convaincante, en inventant par exemple des décisions de justice inexistantes.
Dans un secteur où la précision est cruciale, ces hallucinations peuvent avoir des conséquences désastreuses. Selon des chercheurs de Stanford, les IA génératives produisent encore trop fréquemment de telles erreurs pour être utilisées sans garde-fous dans un contexte légal.
Le danger est double : d’un côté, des avocats peu formés aux limites techniques de ces outils risquent de les employer comme des moteurs de recherche fiables ; de l’autre, les tribunaux s’exposent à une surcharge de travail pour vérifier et corriger ces erreurs.
Pourtant, malgré les dizaines de juges...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
