IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les avocats utilisent l'IA pour bâcler leurs plaidoiries et la situation s'aggrave
Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

Le , par Stéphane le calme

95PARTAGES

13  0 
Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.

Dans le jargon des critiques de l’IA, le mot « slop » désigne cette bouillie textuelle issue des modèles génératifs – une prose lisse, répétitive, souvent incohérente. Dans le monde juridique, cette bouillie devient dangereuse. De plus en plus d’avocats, débordés ou attirés par l’efficacité promise de ChatGPT et consorts, rédigent des conclusions ou des requêtes en s’appuyant sur des outils qui produisent des formulations artificiellement sophistiquées mais fondamentalement erronées.

Le résultat : des dossiers mal argumentés, des citations inventées, des références juridiques inexistantes. En mai 2023, une affaire à New York avait déjà fait scandale : deux avocats avaient remis au tribunal un mémoire truffé de jurisprudences… créées de toutes pièces par ChatGPT. Le juge, consterné, avait parlé d’une « parodie de rigueur ». Depuis, le phénomène s’est amplifié et institutionnalisé, jusqu’à susciter la création d’initiatives comme AI Law Hub et SlopTracker, des plateformes où les juristes recensent les dérives de leurs confrères.

Une multiplication de ce type de cas

Le New York Times publie un nouvel article sur cette tendance inquiétante, soulignant que les sanctions infligées aux avocats pris en flagrant délit d'utilisation négligente de l'IA sont de plus en plus fréquentes (ces sanctions peuvent se limiter à une amende ou à un autre désagrément mineur). Apparemment, la position de l'American Bar Association autorise les avocats à utiliser l'IA dans le cadre de leur travail. Ils doivent simplement s'assurer que le texte généré par le chatbot est correct et ne contient pas d'exemples de cas juridiques fictifs – une situation qui semble malheureusement se répéter. Le Times note d'ailleurs*:

«*D'après des documents judiciaires et des entretiens avec des avocats et des universitaires, la profession juridique est devenue ces derniers mois un véritable nid à erreurs d'IA. Certaines de ces erreurs sont dues au recours aux chatbots au lieu de faire appel à un avocat.*» Les chatbots, malgré leurs inconvénients, peuvent aider ceux qui se représentent eux-mêmes à « parler un langage que les juges comprendront », a déclaré Jesse Schaefer, un avocat basé en Caroline du Nord… Mais un nombre croissant d’affaires proviennent de professionnels du droit, et les tribunaux commencent à prévoir des sanctions telles que de petites amendes et autres mesures disciplinaires.

Un avocat condamné à payer une amende de 10 000 dollars : il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA

Un avocat californien a été condamné à une amende de 10*000 dollars pour avoir déposé un appel devant une cour d'appel de l'État truffé de fausses citations générées par l'outil d'intelligence artificielle ChatGPT.

Cette amende semble être la plus importante jamais infligée par un tribunal californien pour usage abusif de l'IA. Elle s'accompagne d'une décision cinglante indiquant que 21 des 23 citations d'arrêts cités dans le mémoire introductif de l'avocat étaient inventées. La cour souligne également que de nombreux tribunaux, tant hors de l'État qu'au niveau fédéral, ont déjà interpellé des avocats pour avoir cité de fausses sources juridiques.

«*Nous publions donc cette décision à titre d'avertissement*», poursuit-elle. «*En clair, aucun mémoire, acte de procédure, requête ou autre document déposé devant un tribunal ne doit contenir de citations – qu'elles proviennent d'une IA générative ou de toute autre source – que l'avocat responsable du dépôt n'a pas personnellement lues et vérifiées.»

Cette décision, rendue le 12 septembre par la Cour d'appel du deuxième district de Californie, illustre parfaitement pourquoi les autorités judiciaires de l'État s'efforcent de réglementer l'utilisation de l'IA dans le système judiciaire. Il y a deux semaines, le Conseil judiciaire de l'État a publié des directives exigeant des juges et du personnel des tribunaux qu'ils interdisent l'intelligence artificielle générative ou qu'ils adoptent une politique d'utilisation de cette intelligence artificielle générative d'ici le 15 décembre. Parallèlement, le Barreau de Californie examine la possibilité de renforcer son code de déontologie afin de prendre en compte les différentes formes d'IA, suite à une demande de la Cour suprême de Californie le mois dernier.

L'avocat de la région de Los Angeles, Amir Mostafavi, condamné à une amende, a déclaré au tribunal qu'il n'avait pas lu le texte généré par le modèle d'IA avant de déposer son appel en juillet 2023, plusieurs mois après qu'OpenAI a présenté ChatGPT comme capable de réussir l'examen du barreau. Un collège de trois juges l'a condamné à une amende pour avoir déposé un appel abusif, violé les règles de procédure, cité de faux cas et gaspillé le temps du tribunal et l'argent des contribuables, selon l'avis rendu.

Mostafavi a déclaré à CalMatters avoir rédigé l'appel puis utilisé ChatGPT pour tenter de l'améliorer. Il a précisé qu'il ignorait que le logiciel ajouterait des références jurisprudentielles ou inventerait des informations.

Il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA. Celle-ci est devenue un outil essentiel, au même titre que les bases de données en ligne ont largement remplacé les bibliothèques juridiques. Tant que les systèmes d'IA continueront à produire de fausses informations, il conseille aux avocats qui y ont recours de faire preuve de prudence.

« En attendant, il y aura des victimes, des dommages et des dégâts », a-t-il affirmé. « J'espère que cet exemple évitera à d'autres de tomber dans le même piège. J'en subis les conséquences. »

Une base de données des cas d'avocats invoquant de fausses affaires générées par IA

L'amende infligée à Mostafavi est la sanction la plus lourde jamais prononcée contre un avocat par un tribunal californien et l'une des plus importantes jamais infligées pour utilisation abusive de l'IA par un avocat, selon Damien Charlotin, qui enseigne le droit et l'IA dans une école de commerce parisienne. Il recense les cas d'avocats invoquant de fausses affaires, principalement en Australie, au Canada, aux États-Unis et au Royaume-Uni.

Dans une affaire très médiatisée en mai, un juge de la Cour de district des États-Unis en Californie a condamné deux cabinets d'avocats à verser 31*100 dollars d'honoraires à l'avocat de la défense et au tribunal pour les frais liés à l'utilisation de «*fausses recherches générées par l'IA*». Dans sa décision, le juge a déclaré s'être senti trompé, a indiqué que les avocats avaient failli citer de faux éléments dans une ordonnance et a affirmé*: «*Une forte dissuasion est nécessaire pour éviter que les avocats ne cèdent à cette facilité.*»

Charlotin estime que les tribunaux et le public doivent s'attendre à une augmentation exponentielle de ces affaires à l'avenir. Lorsqu'il a commencé à recenser les dossiers judiciaires impliquant l'IA et les faux témoignages au début de l'année, il en rencontrait quelques-uns par mois. Désormais, il en voit plusieurs par jour. Les grands modèles de langage affirment avec assurance des mensonges comme des faits, surtout en l'absence de preuves.

« Plus votre argumentation juridique est complexe, plus le modèle aura tendance à induire en erreur, car il cherchera à vous satisfaire », explique-t-il. « C'est là que le biais de confirmation entre en jeu. »

En parcourant le site de Charlotin, on est pour le moins effrayé*: on y trouve déjà 11 pages d'affaires illustrant ces aberrations (les chercheurs affirment en avoir recensé 509 à ce jour).

Une...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/11/2025 à 0:36
Remplacez le jargon des avocats par celui des développeurs et vous aurez un autre article criant de vérité :
Citation Envoyé par
L’automatisation du développement logiciel

Ce que révèle cette crise, c’est la mutation d’un métier fondé sur la précision, la nuance et la responsabilité. L’usage d’outils comme GPT, Claude ou Copilot promet de gagner du temps, d’améliorer la clarté ou de simplifier la recherche de code. Mais le revers de la médaille, c’est la perte du contrôle intellectuel.

Là où le développeur devrait interpréter, il se contente parfois de recopier. Là où il devrait peser chaque instruction, il laisse l’algorithme formuler des généralités verbeuses. Le « slop coding » n’est pas qu’un problème de style : il est la preuve d’une déresponsabilisation progressive, d’un glissement où le code devient une simple sortie de modèle statistique.

Et dans le domaine logiciel, une erreur de raisonnement ou une valeur inventée ne se corrige pas comme une coquille dans un e-mail : elle peut fausser une décision, nuire à un client, voire porter atteinte à la société.
Pas plus tard que vendredi je parlais avec mes collègues de faire la distinction entre ceux qui sont rigoureux et ceux qui ne le sont pas :
  • les rigoureux peuvent tirer de l'IA les principaux avantages, car leur rigueur s'assure qu'ils vérifient derrière et comprennent ce qu'ils font, l'IA peut alors faire gagner un peu de temps sur les parties à écrire qu'on maîtrise déjà (peu de temps de vérification nécessaire) ou beaucoup pour les juniors qui peuvent focaliser leur temps d'apprentissage sur ce qui marche (moins de recherches infructueuses, qui peuvent apprendre des trucs mais moins pertinentes à l'instant T), et pour le reste rend surtout le job plus fun
  • les non-rigoureux par contre ont toutes les chances de donner une fausse impression de gros coup de pouce sur le court terme, en se contentant de copier sans vraiment réfléchir à ce qu'ils font, donnant l'impression qu'ils exploitent mieux l'IA alors qu'en fait les conséquences néfastes ne s'en ressentiront que plus tard, introduisant des coûts qui gomment les avantages illusoires de court terme. Quant au long terme, à force de se laisser aller à l'IA, ils ne forgeront pas leur propre expertise, se contentant de rester dépendants d'outils qu'ils ne maîtrisent pas et de stagner à leur niveau. Rendant le renouvellement des générations de dévs précaire.


En tant que développeurs, c'est à nous de nous assurer que nos juniors et nos employeurs ne tombent pas dans le panneau.

Pour les ingénieurs français, inscrits au répertoire des Ingénieurs et Scientifiques de France (IESF), il en va de notre responsabilité d'informer et de former :
https://www.iesf.fr/752_p_49680/char...ingenieur.html
Citation Envoyé par Charte IESF
En tant que membres d’un collectif de travail, l'ingénieur et le scientifique :
  • se mettent au service de leurs commanditaires et les informent des risques et contraintes (sociaux, environnementaux, économiques) des solutions proposées (Sens du service),
  • ...
  • participent à l'adaptation des activités de leur collectif de travail aux évolutions de la société et de l’environnement (Agilité),
  • encouragent la montée en compétences techniques et scientifiques de leurs collaborateurs et équipes (Management),
  • travaillent méthodiquement afin d’assurer la traçabilité des résultats et des données qui fondent les décisions de leur collectif de travail (Transparence),
  • participent activement à la gouvernance de leur collectif de travail (Engagement),
  • ...
  • signalent, de bonne foi et de manière désintéressée, les risques et les atteintes graves envers les droits humains, les libertés fondamentales, la santé et la sécurité des personnes, ainsi que l’environnement, résultant des activités de leur collectif de travail (Intégrité).

Citation Envoyé par Charte IESF
En tant que membres de la société toute entière, l’ingénieur et le scientifique :
  • ...
  • adoptent une posture active dans la société en éclairant l'opinion publique sur les problématiques qui nécessitent une vision de l'ingénieur ou du scientifique (Citoyenneté),
  • transmettent leur savoir scientifique et leur expérience, en les rendant accessibles au plus grand nombre (Vulgarisation),
  • ...

3  0 
Avatar de
https://www.developpez.com
Le 11/11/2025 à 1:29
entre les réponses approximatives façon profession de foi ("vous nous avez demandé si... nous certifions que" sans aucune réf juridique) et les inventions c'est catastrophique. dans les cas les plus fréquents l'IA est co... comme une b... quel écran de fumée, tout ça pour facturer. Un bon vieux moteur de recherches qui pointe vers des données validées... pas photo. ça c'est pire que tout.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 14/11/2025 à 7:35
Citation Envoyé par calvaire Voir le message
Ça répond déjà à un besoin, aux usa celui qui veut pas mettre 500€ dans une consultation médicale ou un avocat utilise déjà chatgpt et se débrouille.
Et soigne sa dépression en se pendant.
l'école de mes gosses et payante mais c'est 15 élèves dans la classe avec 2 profs, la oui y'a une value d'avoir un humain. Mais cela a un prix.
Bienvenue dans le capitalisme : tu veux sortir du lot? Payes.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/11/2025 à 16:01
Citation Envoyé par Stéphane le calme Voir le message
Un mouvement se développe au sein de la profession pour recenser les affaires inventées par l'IA utilisées par leurs confrères

Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.
Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
Les gars écrivent des plaidoiries en 5 min?
On est pas capable de les détruire à peine plus lentement?
Surtout que les gens doivent donner des sources (articles, jurisprudence du xx/xx/xxxx etc).
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/11/2025 à 20:37
Citation Envoyé par totozor Voir le message
Vraie question bête : est il si compliqué de développer une IA qui vérifie ces plaidoiries.
Elle te générera, comme les autres, un texte plausible. Correct quand tu as de la chance, avec des illusions quand tu en as moins, genre elle invente des bons points ou des mauvais points que la plaidoirie n'a pas, ou de vrais critiques mais sur la base de raisons inventées. Si on pouvait faire ça, on pourrait tout aussi bien faire des plaidoiries qui tiennent la route. Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt. Tu peux générer une analyse plausible, mais il faut toujours repasser derrière pour confirmer, sinon tu ne sais pas quand tu te baseras sur du bullshit.

Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 13/11/2025 à 8:05
Citation Envoyé par Matthieu Vergne Voir le message
Tu ne peux jamais rien "vérifier" avec un LLM, quel que soit le prompt.
Et si par IA tu parles d'autre chose que du LLM, le soucis est que c'est une tâche de traitement du langage en premier lieu, là où justement les LLM sont bons. Le truc est qu'il faut combiner ça avec de la logique (juridique, pour le coup) ce qui est hors de leur portée. À voir avec les futures technos en cours de construction (JEPA ?).
je comprends bien qu'on a besoin d'un LLM à la base pour identifier les sources mais ça ne doit pas être la mer à boire. Nous arrivons à développer des IA qui identifient des exigences ou retrouvent des sujets dans nos procédures alors que ce n'est pas notre coeur de métier, en grande partie parce que les documents sont très normalisés et les mots clés sont facile à retrouver ("jurispridence" "article" par exemple pour le juridique).
Ne peut-on pas se contenter ensuite d'un "moteur de recherche automatisé" pour aller chercher les références? L'objectif premier est d'identifier les plaidoiries avec des fausses sources.
On peut ensuite remettre une couche de LLM pour extraire le texte des source identifiée et sortir un facteur de corrélation.

Je vois bien que la première étape est pas si évidente et le risque (qu'on voit chez les élèves) d'uniformisation des plaidoiries.
Mais on se retrouve quand même face à des gens qui protègent leur profession de l'IA pour à la fin se transformer en porte parole de celles ci et qui ne se donnent même pas le mal de les relire et faire leur boulot.
je suis sincèrement pour que les professionnels puissent se protéger des IA mais je pense aussi qu'il faut être sans pitié pour ceux qui se cache derrière ça mais n'assurent pas leur travail à la fin. Et si la vague est si grosse alors il faut combattre le feu par le feu ou embaucher une armée de "légicheckeurs" qui seront les légistes fraudeurs de demain
0  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/11/2025 à 10:32
Personnellement, ce qui m'étonne c'est que les avocats utilisent des LLM qui génère du bullshit alors que des IA du type systèmes experts existent et sont bien plus fiable (sans être parfaite).
J'imagine qu'il y a la place pour une combinaison des deux : L'avocat entre une série de faits dans le système expert, qui sort ensuite une série de texte de lois applicables, les fourchettes des peines encourues et la jurisprudence sur ces cas là, puis le LLM synthétise ces résultat là, rien d'autre.

Reste que la jurisprudence, c'est pas magique, c'est consigné par une poignée d'éditeurs qui doivent facturer cher l'accès à leur BDD.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 13/11/2025 à 11:31
ce n'est pas prêt de s'arreter.

l'avocat peux traiter plus rapidement des affaires donc augmenter son ca.
il peut aussi décider de baisser les couts pour élargir sa clientèle.

A la fin ca fera une justice bien plus engorgé. On pourrais imaginer ici une ia pour traiter les affaires les moins graves et si appel cela passerait par des humains.
Une maison squatter par exemple, une ia pourrait très bien ordonné l'expulsion du squatteur dans la seconde, pas la peine de déranger un juge humain pour ça.

Dans un monde parfait, bien sur la solution serait que l'avocat fasse bien son travail, il faudrait engager plus de juge/magistrat, mais la justice en france c'est un très petit budget qui ne peut être étendue (au détriment d'autre chose sinon) il faut trouver des solutions avec des moyens limité.
et dans ce monde, les petits avocats vont préférer augmenter leurs CA quitte à bâcler le travail que de faire de la qualité. Surtout pour des affaires banals et répétitive (divorce, conflit voisinage, squat...)
Pour les gros cabinet prestigieux, c'est la réputation du cabinet qui est en jeu donc je pense que la qualité primera.
le génie logiciel c'est pareil, on ait des choix pour rester dans le budget, réduction des tests, on bâcle l'optimisation, on supprime certaines fonctionnalités utilisé...etc.

ce n'est qu'une question de temps mais les métiers de comptable, avocat, et même médecin seront tot ou tard plus protégé par les états et ce sera open bar pour les ia. d'ici 10-20ans je pense qu'avoir une ia comptable, une ia avocat et une ia médecin généraliste sera la norme.
Ça répond déjà à un besoin, aux usa celui qui veut pas mettre 500€ dans une consultation médicale ou un avocat utilise déjà chatgpt et se débrouille.
Je connais nombre d'étudiants qui se forme avec chatgpt, le prof ne sert juste qu'a donner des polycopier et surveiller la salle pendant les examens. Beaucoup prefere la qualité d'un cours personnalisé avec chatgpt que un cours magistrale. Un prof qui parle à 30 élèves dans un collège ou 200dans un fac, ca ne sert à rien.
J'ai même déjà vu des facs engorgé en france, un amphi avec le prof et un autre amphi c'est une grosse télé avec le cours en direct. Des étudiants ont même cassé cette télé pour empêcher la moitié de la promo d’accéder aux cours et d'avoir un avantage au concours, seul ceux qui se levait à 5h du mat et faisait la queue devant l'amphi avait une chance.

l'école de mes gosses et payante mais c'est 15 élèves dans la classe avec 2 profs, la oui y'a une value d'avoir un humain. Mais cela a un prix.
prix que peu peuvent/veulent mettre, déjà que les profs en france se plaignent d’être pas assez bien payé.

Il y'a les dur réalités économique qui forceront ces secteurs encore protégé a s'ouvrir à l'ia.
0  2