Aux États-Unis, les tribunaux commencent à crouler sous des documents juridiques « slopifiés » – des textes générés ou fortement assistés par des intelligences artificielles qui déforment la logique, inventent des jurisprudences et brouillent le langage du droit. Ce phénomène, dénoncé par des juristes eux-mêmes, marque une dérive inquiétante : celle d’une profession qui, en cédant trop vite à la tentation de l’IA, met en péril la rigueur de sa propre parole.Dans le jargon des critiques de l’IA, le mot « slop » désigne cette bouillie textuelle issue des modèles génératifs – une prose lisse, répétitive, souvent incohérente. Dans le monde juridique, cette bouillie devient dangereuse. De plus en plus d’avocats, débordés ou attirés par l’efficacité promise de ChatGPT et consorts, rédigent des conclusions ou des requêtes en s’appuyant sur des outils qui produisent des formulations artificiellement sophistiquées mais fondamentalement erronées.
Le résultat : des dossiers mal argumentés, des citations inventées, des références juridiques inexistantes. En mai 2023, une affaire à New York avait déjà fait scandale : deux avocats avaient remis au tribunal un mémoire truffé de jurisprudences… créées de toutes pièces par ChatGPT. Le juge, consterné, avait parlé d’une « parodie de rigueur ». Depuis, le phénomène s’est amplifié et institutionnalisé, jusqu’à susciter la création d’initiatives comme AI Law Hub et SlopTracker, des plateformes où les juristes recensent les dérives de leurs confrères.
Une multiplication de ce type de cas
Le New York Times publie un nouvel article sur cette tendance inquiétante, soulignant que les sanctions infligées aux avocats pris en flagrant délit d'utilisation négligente de l'IA sont de plus en plus fréquentes (ces sanctions peuvent se limiter à une amende ou à un autre désagrément mineur). Apparemment, la position de l'American Bar Association autorise les avocats à utiliser l'IA dans le cadre de leur travail. Ils doivent simplement s'assurer que le texte généré par le chatbot est correct et ne contient pas d'exemples de cas juridiques fictifs – une situation qui semble malheureusement se répéter. Le Times note d'ailleurs*:
«*D'après des documents judiciaires et des entretiens avec des avocats et des universitaires, la profession juridique est devenue ces derniers mois un véritable nid à erreurs d'IA. Certaines de ces erreurs sont dues au recours aux chatbots au lieu de faire appel à un avocat.*» Les chatbots, malgré leurs inconvénients, peuvent aider ceux qui se représentent eux-mêmes à « parler un langage que les juges comprendront », a déclaré Jesse Schaefer, un avocat basé en Caroline du Nord… Mais un nombre croissant d’affaires proviennent de professionnels du droit, et les tribunaux commencent à prévoir des sanctions telles que de petites amendes et autres mesures disciplinaires.
Un avocat condamné à payer une amende de 10 000 dollars : il estime illusoire d'espérer que les avocats cessent d'utiliser l'IA
Un avocat californien a été condamné à une amende de 10*000 dollars pour avoir déposé un appel devant une cour d'appel de l'État truffé de fausses citations générées par l'outil d'intelligence artificielle ChatGPT.
Cette amende semble être la plus importante jamais infligée par un tribunal californien pour usage abusif de l'IA. Elle s'accompagne d'une décision cinglante indiquant que 21 des 23 citations d'arrêts cités dans le mémoire introductif de l'avocat étaient inventées. La cour souligne également que de nombreux tribunaux, tant hors de l'État qu'au niveau fédéral, ont déjà interpellé des avocats pour avoir cité de fausses sources juridiques.
«*Nous publions donc cette décision à titre d'avertissement*», poursuit-elle. «*En clair, aucun mémoire, acte de procédure, requête ou autre document déposé devant un tribunal ne doit contenir de citations – qu'elles proviennent d'une IA générative ou de toute autre source – que l'avocat responsable du dépôt n'a pas personnellement lues et vérifiées.»
Cette décision, rendue le 12 septembre par la Cour d'appel du deuxième district de Californie, illustre parfaitement pourquoi les autorités judiciaires de l'État s'efforcent de réglementer l'utilisation de l'IA dans le système judiciaire. Il y a deux semaines, le Conseil judiciaire de l'État a publié des directives exigeant des juges et du personnel des tribunaux qu'ils interdisent l'intelligence artificielle générative ou qu'ils adoptent une politique d'utilisation de cette intelligence artificielle générative d'ici le 15...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
dans les cas les plus fréquents l'IA est co... comme une b... 