IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un avocat américain condamné à une amende de 15 000 dollars pour avoir utilisé un cas fictif généré par l'IA
Et d'autres incidents similaires se sont produits récemment

Le , par Jade Emy

12PARTAGES

5  0 
Un avocat américain condamné à une amende de 15 000 dollars pour avoir utilisé un cas fictif généré par l'IA, et d'autres incidents similaires se sont produits récemment.

Un avocat américain condamné à une amende pour avoir utilisé une affaire fictive générée par l'IA. L'avocat Rafael Ramirez a été recommandé pour une amende de 15 000 dollars pour avoir cité des affaires judiciaires fictives. Ramirez a admis avoir utilisé des outils d'IA pour rédiger des documents juridiques, mais n'a pas vérifié les affaires citées. Cet incident a suscité de nombreuses inquiétudes quant aux risques liés à l'utilisation de l'IA dans le domaine juridique.

Depuis le boom de l'IA en 2023, les avocats ont de plus en plus recours au chabot d'intelligence artificielle (IA) pour les aider dans leurs travails. Cependant, même eux font face à des erreurs et des hallucinations de l'IA.

En mai 2023, l’avocat Steven A. Schwartz a utilisé ChatGPT pour générer et citer des affaires fictives lors d'un procès. Il représentait un homme qui poursuivait la compagnie aérienne Avianca après qu’un chariot de service lui ait heurté le genou lors d’un vol vers l’aéroport Kennedy de New York en 2019. Schwartz avait admis qu'il ne savait pas que ChatGPT inventerait simplement des affaires, le chatbot ayant insisté sur le fait qu’elles étaient réelles.

En mars 2024, un avocat de Vancouver, Chong Ke, a été condamné à payer les frais de la partie adverse après avoir cité deux affaires inexistantes générées par ChatGPT dans un litige de garde d’enfants. Le juge a réprimandé l'avocat Ke pour avoir inclus deux "hallucinations" de l’IA dans sa demande et l’a condamnée à payer les frais engagés par les avocats de Zhang pour vérifier l’existence des affaires. Il a estimé que Ke n’avait pas l’intention de tromper le tribunal, mais qu’elle avait fait preuve d’une "négligence professionnelle".

Récemment, le juge Mark D. Dinsmore du district sud de l'Indiana a recommandé une amende de 15 000 dollars à un avocat qui avait cité des affaires inexistantes dans des documents juridiques. L'avocat en question est Rafael Ramirez, de Rio Hondo, au Texas. Le 29 octobre 2024, il a cité trois affaires fabriquées de toutes pièces dans ses documents juridiques. Le récent rapport du juge Dinsmore indique que Ramirez n'a pas vérifié la validité et l'exactitude des cas cités dans trois documents juridiques, recommandant ainsi une amende de 5 000 dollars pour chaque document.


Le juge Dinsmore a fait valoir que si citer des chiffres, des dates ou des fautes d'orthographe est une erreur courante, citer des affaires totalement inexistantes est une erreur bien plus grave. Au cours de la procédure, le juge a demandé à Ramirez d'expliquer la situation. Ramirez a admis avoir utilisé des outils d'intelligence artificielle pour rédiger les documents et a déclaré qu'il ne savait pas que ces outils pouvaient générer de faux cas et de fausses citations.

Bien que Ramirez ait affirmé ne pas avoir eu d'intention malveillante, il a également admis ne pas s'être pleinement conformé à la règle 11 des règles fédérales de procédure civile, qui exige des avocats qu'ils certifient l'exactitude des documents soumis au tribunal. Le juge Dinsmore a souligné que la méconnaissance de l'outil d'IA par Ramirez mettait en évidence la gravité du problème.

Ces incidents mettent en évidence les risques liés à l'utilisation de l'intelligence artificielle dans le domaine juridique et les responsabilités qui incombent aux avocats lorsqu'ils utilisent ces technologies. Cependant, cela n'empêche pas les gens d'avoir de plus en plus recours à l'IA. Par exemple, en 2023, une IA devait servi d'avocat à un individu dans un cas devant un tribunal. L'IA de l’entreprise DoNotPay fonctionne sur un téléphone, écoute tous les discours dans la salle d’audience et donne des instructions à qui s’en sert grâce à une oreillette. L'entreprise proposait même "1 000 000 $ à tout avocat ou personne ayant une affaire à venir devant la Cour suprême des États-Unis pour qu'il porte des AirPods et laisse notre robot avocat plaider l'affaire en répétant exactement ce qu'il dit.

En outre, récemment, des travailleurs mécontents avaient utilisé l'IA pour générer et déposer des plaintes contre leurs employeurs à un rythme sans précédent. Mais les experts ont noté que l'IA génère des arguments incohérents, longs et souvent incorrects et entraîne une hausse des frais de justice. Un expert avait notamment affirmé : "Dans de nombreux cas, les résultats de l'IA sont inexacts, ce qui amène les demandeurs à invoquer des revendications ou des arguments non valables. L'employeur ne peut pas se contenter d'ignorer ces demandes. Cela conduit à un cycle de correspondance continue et coûteuse"

Source : Décision de Justice

Et vous ?

Pensez-vous que cette décision du juge est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Un juge a infligé une amende de 5 000 $ à un cabinet d'avocats qui s'est appuyé sur des affaires juridiques fictives générées par ChatGPT. Ce dernier avait assuré que ces affaires étaient réelles

Près de trois quarts des juristes prévoient d'utiliser l'IA pour leur travail, ce qui est effrayant. Les modèles d'IA juridique hallucinent une fois sur six (ou plus) dans les évaluations comparatives

Il vaut mieux appeler GPT qu'un avocat, les grands modèles de langage démontrent une grande précision, des temps de révision réduits et des économies jusqu'à 100% de coûts par rapport aux avocats
Vous avez lu gratuitement 9 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !