Un avocat américain vient de subir la sanction ultime après avoir multiplié les erreurs générées par l'intelligence artificielle dans ses plaidoiries. Malgré plusieurs avertissements du tribunal et des envolées lyriques citant Ray Bradbury, Steven Feldman n'a pu éviter un jugement par défaut contre son client. Cette affaire illustre les dangers d'une confiance aveugle dans les outils d'IA générative et pose des questions cruciales sur la responsabilité professionnelle à l'ère algorithmique.L'affaire Steven Feldman devant la cour fédérale de New York restera dans les annales comme un cas d'école des dérives de l'utilisation de l'intelligence artificielle dans la profession juridique. Ce qui aurait pu n'être qu'une simple erreur s'est transformé en catastrophe professionnelle après que l'avocat ait persisté dans ses manquements malgré les multiples avertissements de la juge Katherine Polk Failla.
Une cascade d'erreurs générées par l'IA
Tout commence par un mémoire truffé de références juridiques inexistantes. Dans le cadre d'une affaire de contrefaçon de marque opposant Flycatcher Corp. à Affable Avenue LLC, Steven Feldman soumet des documents contenant des citations de jurisprudence inventées de toutes pièces par un système d'IA. Ces « hallucinations algorithmiques » (terme désignant la production par l'IA de contenus factuellement faux mais présentés avec assurance) incluaient des références à des décisions judiciaires totalement fictives, avec numéros de dossier et citations crédibles.
Lorsque la cour lui ordonne de justifier ces erreurs, l'avocat récidive de manière spectaculaire. Sa réponse à l'injonction du tribunal contient elle-même de nouvelles erreurs, notamment une citation erronée attribuée à une décision judiciaire alors qu'elle provient en réalité d'un article de blog juridique. Plus étonnant encore, le document regorge de références littéraires pompeuses et d'envolées lyriques sur « les bibliothèques antiques d'Ashurbanipal » et les « scribes portant leur stylet comme un serment sacré », ainsi qu'une citation du roman Fahrenheit 451 de Ray Bradbury.
Un changement de ton suspect
La juge Failla ne s'y trompe pas. Le contraste stylistique entre ce mémoire fleuri et une simple lettre envoyée trois jours plus tard, truffée de fautes de frappe, suggère fortement que la réponse elle-même a été générée par l'IA. « La Cour peut pardonner le changement de ton abrupt et les références historiques non pertinentes ; ce qu'elle ne peut pardonner, c'est l'inclusion par M. Feldman d'une autre citation erronée et son échec persistant à vérifier ses références », écrit la magistrate dans sa décision.
Mais l'escalade ne s'arrête pas là. Alors qu'il attend une audience sur les sanctions potentielles, Feldman soumet spontanément un projet de mémoire en réplique contenant encore une affaire inexistante. Cette récidive chronique conduit la juge à une conclusion sans appel : l'avocat « n'a pas appris et apparemment ne peut pas apprendre de ses erreurs ».
La sanction maximale : un jugement par défaut
Le 5 février 2026, la juge Failla prononce une sanction rarissime dans ce type de procédure : un jugement par défaut contre le client de Feldman, Affable Avenue LLC. Cette sanction « terminale » signifie que le client perd automatiquement l'affaire, non pas sur le fond du litige, mais en raison de l'inconduite procédurale de son avocat.
La magistrate justifie cette sévérité par trois éléments aggravants. Premièrement, Feldman a délibérément choisi d'utiliser des méthodes de recherche juridique défaillantes. Deuxièmement, il a refusé de manière inexplicable de vérifier ses soumissions avant de les déposer auprès du tribunal. Troisièmement, il n'a pas voulu admettre franchement ses erreurs une fois celles-ci révélées au grand jour.
« La Cour tient à préciser que son problème n'est pas l'utilisation de l'IA en soi, mais plutôt la décision consciente de M. Feldman d'utiliser des méthodes défaillantes de recherche juridique et de vérification des citations, son refus inexplicable de vérifier ses soumissions avant de les déposer, et sa réticence à assumer ses responsabilités une fois ces problèmes révélés », écrit la juge dans sa décision finale.
Un phénomène mondial en expansion
Le phénomène des hallucinations d'IA dans les tribunaux prend une ampleur telle qu'un chercheur français a créé une base de données exhaustive pour en suivre l'évolution. Damien Charlotin, praticien indépendant chez Pelekan Data Consulting à Paris et chercheur associé au Smart Law Hub de HEC, maintient depuis avril 2025 un recensement méticuleux de tous les cas judiciaires où des contenus hallucinés par l'IA ont été soumis aux tribunaux.
Au moment de la rédaction de cet article, sa base de données comptabilise 905 décisions judiciaires documentées provenant de 32 pays différents. Les États-Unis dominent largement avec 628 cas, suivis par le Canada (59), l'Australie (55), le Royaume-Uni (35) et Israël (40). La France compte pour l'instant six cas recensés, mais Charlotin précise que son inventaire est un travail en cours qui continue de s'enrichir quotidiennement.
Fort de cette base de données, Charlotin a développé PelAIkan, un vérificateur automatique de références capable de détecter les hallucinations juridiques. L'outil analyse les citations contenues dans les documents juridiques et les compare aux bases de données officielles pour identifier les références inexistantes ou erronées. Cette initiative rejoint les efforts de plusieurs barreaux et juridictions qui commencent à imposer l'utilisation de logiciels de vérification pour tous les documents contenant des recherches assistées par IA.
La base de données de Charlotin a été citée dans plusieurs décisions judiciaires traitant d'hallucinations, et fait désormais référence dans les médias juridiques internationaux. Le Los Angeles Times, le blog Volokh Conspiracy, et de nombreuses publications spécialisées s'y réfèrent régulièrement pour illustrer l'ampleur du phénomène.
Le chercheur reste néanmoins mesuré dans son interprétation. « Je ne suis pas sûr que ce soit si significatif, étant donné le nombre de cas dans le monde qui utilisent l'IA. Ces erreurs sont-elles vraiment si courantes ? Je n'en suis pas certain », confie-t-il. Il précise que son recensement comporte nécessairement un biais : il ne répertorie que les décisions judiciaires qu'il a pu identifier,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.