IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave
Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

Le , par Stéphane le calme

0PARTAGES

5  0 
Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.

Dans le jargon des critiques de l’IA, le mot « slop » désigne cette bouillie textuelle issue des modèles génératifs – une prose lisse, répétitive, souvent incohérente. Dans le monde juridique, cette bouillie devient dangereuse. De plus en plus d’avocats, débordés ou attirés par l’efficacité promise de ChatGPT et consorts, rédigent des conclusions ou des requêtes en s’appuyant sur des outils qui produisent des formulations artificiellement sophistiquées mais fondamentalement erronées.

Le résultat : des dossiers mal argumentés, des citations inventées, des références juridiques inexistantes. En mai 2023, une affaire à New York avait déjà fait scandale : deux avocats avaient remis au tribunal un mémoire truffé de jurisprudences… créées de toutes pièces par ChatGPT. Le juge, consterné, avait parlé d’une « parodie de rigueur ». Depuis, le phénomène s’est amplifié et institutionnalisé, jusqu’à susciter la création d’initiatives comme AI Law Hub et SlopTracker, des plateformes où les juristes recensent les dérives de leurs confrères.

Une multiplication de ce type de cas

Le New York Times publie un nouvel article sur cette tendance inquiétante, soulignant que les sanctions infligées aux avocats pris en flagrant délit d'utilisation négligente de l'IA sont de plus en plus fréquentes (ces sanctions peuvent se limiter à une amende ou à un autre désagrément mineur). Apparemment, la position de l'American Bar Association autorise les avocats à utiliser l'IA dans le cadre de leur travail. Ils doivent simplement s'assurer que le texte généré par le chatbot est correct et ne contient pas d'exemples de cas juridiques fictifs – une situation qui semble malheureusement se répéter. Le Times note d'ailleurs*:

«*D'après des documents judiciaires et des entretiens avec des avocats et des universitaires, la profession juridique est devenue ces derniers mois un véritable nid à erreurs d'IA. Certaines de ces erreurs sont dues au recours aux chatbots au lieu de faire appel à un avocat.*» Les chatbots, malgré leurs inconvénients, peuvent aider ceux qui se représentent eux-mêmes à « parler un langage que les juges comprendront », a déclaré Jesse Schaefer, un avocat basé en Caroline du Nord… Mais un nombre croissant d’affaires proviennent de professionnels du droit, et les tribunaux commencent à prévoir des sanctions telles que de petites amendes et autres mesures disciplinaires.

Un avocat condamné à payer une amende de 10 000 dollars : il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA

Un avocat californien a été condamné à une amende de 10*000 dollars pour avoir déposé un appel devant une cour d'appel de l'État truffé de fausses citations générées par l'outil d'intelligence artificielle ChatGPT.

Cette amende semble être la plus importante jamais infligée par un tribunal californien pour usage abusif de l'IA. Elle s'accompagne d'une décision cinglante indiquant que 21 des 23 citations d'arrêts cités dans le mémoire introductif de l'avocat étaient inventées. La cour souligne également que de nombreux tribunaux, tant hors de l'État qu'au niveau fédéral, ont déjà interpellé des avocats pour avoir cité de fausses sources juridiques.

«*Nous publions donc cette décision à titre d'avertissement*», poursuit-elle. «*En clair, aucun mémoire, acte de procédure, requête ou autre document déposé devant un tribunal ne doit contenir de citations – qu'elles proviennent d'une IA générative ou de toute autre source – que l'avocat responsable du dépôt n'a pas personnellement lues et vérifiées.»

Cette décision, rendue le 12 septembre par la Cour d'appel du deuxième district de Californie, illustre parfaitement pourquoi les autorités judiciaires de l'État s'efforcent de réglementer l'utilisation de l'IA dans le système judiciaire. Il y a deux semaines, le Conseil judiciaire de l'État a publié des directives exigeant des juges et du personnel des tribunaux qu'ils interdisent l'intelligence artificielle générative ou qu'ils adoptent une politique d'utilisation de cette intelligence artificielle générative d'ici le 15 décembre. Parallèlement, le Barreau de Californie examine la possibilité de renforcer son code de déontologie afin de prendre en compte les différentes formes d'IA, suite à une demande de la Cour suprême de Californie le mois dernier.

L'avocat de la région de Los Angeles, Amir Mostafavi, condamné à une amende, a déclaré au tribunal qu'il n'avait pas lu le texte généré par le modèle d'IA avant de déposer son appel en juillet 2023, plusieurs mois après qu'OpenAI a présenté ChatGPT comme capable de réussir l'examen du barreau. Un collège de trois juges l'a condamné à une amende pour avoir déposé un appel abusif, violé les règles de procédure, cité de faux cas et gaspillé le temps du tribunal et l'argent des contribuables, selon l'avis rendu.

Mostafavi a déclaré à CalMatters avoir rédigé l'appel puis utilisé ChatGPT pour tenter de l'améliorer. Il a précisé qu'il ignorait que le logiciel ajouterait des références jurisprudentielles ou inventerait des informations.

Il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA. Celle-ci est devenue un outil essentiel, au même titre que les bases de données en ligne ont largement remplacé les bibliothèques juridiques. Tant que les systèmes d'IA continueront à produire de fausses informations, il conseille aux avocats qui y ont recours de faire preuve de prudence.

« En attendant, il y aura des victimes, des dommages et des dégâts », a-t-il affirmé. « J'espère que cet exemple évitera à d'autres de tomber dans le même piège. J'en subis les conséquences. »

Une base de données des cas d'avocats invoquant de fausses affaires générées par IA

L'amende infligée à Mostafavi est la sanction la plus lourde jamais prononcée contre un avocat par un tribunal californien et l'une des plus importantes jamais infligées pour utilisation abusive de l'IA par un avocat, selon Damien Charlotin, qui enseigne le droit et l'IA dans une école de commerce parisienne. Il recense les cas d'avocats invoquant de fausses affaires, principalement en Australie, au Canada, aux États-Unis et au Royaume-Uni.

Dans une affaire très médiatisée en mai, un juge de la Cour de district des États-Unis en Californie a condamné deux cabinets d'avocats à verser 31*100 dollars d'honoraires à l'avocat de la défense et au tribunal pour les frais liés à l'utilisation de «*fausses recherches générées par l'IA*». Dans sa décision, le juge a déclaré s'être senti trompé, a indiqué que les avocats avaient failli citer de faux éléments dans une ordonnance et a affirmé*: «*Une forte dissuasion est nécessaire pour éviter que les avocats ne cèdent à cette facilité.*»

Charlotin estime que les tribunaux et le public doivent s'attendre à une augmentation exponentielle de ces affaires à l'avenir. Lorsqu'il a commencé à recenser les dossiers judiciaires impliquant l'IA et les faux témoignages au début de l'année, il en rencontrait quelques-uns par mois. Désormais, il en voit plusieurs par jour. Les grands modèles de langage affirment avec assurance des mensonges comme des faits, surtout en l'absence de preuves.

« Plus votre argumentation juridique est complexe, plus le modèle aura tendance à induire en erreur, car il cherchera à vous satisfaire », explique-t-il. « C'est là que le biais de confirmation entre en jeu. »

En parcourant le site de Charlotin, on est pour le moins effrayé*: on y trouve déjà 11 pages d'affaires illustrant ces aberrations (les chercheurs affirment en avoir recensé 509 à ce jour).

Une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de PascalC67
Nouveau Candidat au Club https://www.developpez.com
Le 11/11/2025 à 1:29
entre les réponses approximatives façon profession de foi ("vous nous avez demandé si... nous certifions que" sans aucune réf juridique) et les inventions c'est catastrophique. dans les cas les plus fréquents l'IA est co... comme une b... quel écran de fumée, tout ça pour facturer. Un bon vieux moteur de recherches qui pointe vers des données validées... pas photo. ça c'est pire que tout.
0  0