Un avocat de Vancouver, Chong Ke, a été condamné à payer les frais de la partie adverse après avoir cité deux affaires inexistantes générées par l’outil d’intelligence artificielle ChatGPT dans un litige de garde d’enfants. Cet incident marque l’un des premiers cas signalés d’utilisation de précédents créés par l’IA dans un tribunal canadien. Le juge Masuhara a réprimandé Ke pour avoir inclus deux « hallucinations » de l’IA dans sa demande et l’a condamnée à payer les frais engagés par les avocats de Zhang pour vérifier l’existence des affaires. Il a estimé que Ke n’avait pas l’intention de tromper le tribunal, mais qu’elle avait fait preuve d’une « négligence professionnelle ». « Comme ce cas l’a malheureusement démontré, l’IA générative n’est toujours pas un substitut à l’expertise professionnelle que le système de justice exige des avocats », a écrit le juge Masuhara.La plupart des lecteurs connaissent maintenant l'avocat qui s'est tourné vers ChatGPT pour effectuer des recherches juridiques. Steven Schwartz, qui exerçait le droit à New York, a admis avoir utilisé l'outil d'IA qui crée des textes réalistes à partir des données fournies par l'utilisateur pour l'aider dans ses recherches juridiques. Il n'a pas vérifié les cas fournis par ChatGPT et a cité sans le savoir plusieurs cas inexistants dans son mémoire.
Les fausses citations ont été portées à l'attention de Schwartz par l'avocat de la partie adverse et par le tribunal, qui a découvert la supercherie. Au lieu de vérifier les cas par exemple à l'aide d'une base de données de recherche juridique, Schwartz s'est rendu sur ChatGPT et a demandé à l'outil de confirmer la véracité des cas. ChatGPT, qui est incapable de comprendre ce qui est vrai ou faux, a répondu par l'affirmative. Schwartz a depuis été sanctionné pour mauvaise conduite.
Après la mise en garde de Schwartz, on pourrait penser que les avocats seraient plus prudents quant à l'utilisation d'outils tels que ChatGPT et vérifieraient sûrement la véracité de leur travail. Pourtant, les avocats continuent de commettre cette erreur.
Une autre affaire au Canada
Ces affaires auraient constitué un précédent convaincant pour un père divorcé d'emmener ses enfants en Chine - si elles avaient été réelles. Mais au lieu de savourer sa victoire au tribunal, l'avocate vancouvéroise d'un millionnaire impliqué dans une séparation acrimonieuse a été sommée de dédommager personnellement les avocats de l'ex-femme de son client pour le temps qu'il leur a fallu pour apprendre que les affaires qu'elle espérait citer avaient été inventées par ChatGPT.
Chong Ke représente Wei Chen, un homme d’affaires dont la valeur nette — selon les procédures de divorce en Chine — serait comprise entre 70 et 90 millions de dollars. L’ex-femme de Chen, Nina Zhang, vit avec leurs trois enfants dans une maison de 8,4 millions de dollars à West Vancouver.
En décembre dernier, le tribunal a ordonné à Chen de verser à Zhang une pension alimentaire de 16 062 dollars par mois, après avoir calculé que son revenu annuel s'élevait à un million de dollars.
Ke a alors déposé une demande au nom de Chen pour obtenir une ordonnance autorisant ses enfants à se rendre en Chine. L'avis de demande citait deux affaires : l'une dans laquelle une mère avait emmené son « enfant, âgé de 7 ans, en Inde pendant six semaines » et l'autre dans laquelle il avait été fait droit à la « demande d'une mère de voyager avec son enfant, âgé de 9 ans, en Chine pendant quatre semaines pour rendre visite à ses parents et à ses amis ».
« Ces affaires sont au cœur de la controverse qui m’oppose, car elles se sont révélées inexistantes », a écrit le juge David Masuhara de la Cour suprême de la Colombie-Britannique dans une décision.
Le problème a été découvert lorsque les avocats de Zhang ont demandé à Ke de leur fournir des copies des affaires pour préparer une réponse et qu’ils n’ont pas pu les localiser par leurs identifiants de citation. Ke a ensuite appris que les affaires avaient été créées par ChatGPT, un outil d’IA capable de générer du texte à partir d’un mot-clé ou d’une phrase. Il s’agit d’une version améliorée de GPT-3, le modèle de langage naturel le plus avancé au monde, développé par OpenAI.
Ke a retiré les affaires de la demande et présenté une lettre d’excuses ainsi qu’une admission que les affaires étaient fausses à un associé qui devait comparaître à une audience à sa place, mais l’affaire n’a pas été entendue ce jour-là et l’associé n’a pas remis une copie aux avocats de Zhang. Masuhara a déclaré que l'avocate avait ensuite fait une déclaration sous serment soulignant son « manque de connaissance » des risques liés à l'utilisation de ChatGPT et « sa découverte que les cas étaient fictifs, ce qu'elle décrit comme étant "mortifiant" ».
« Je n'avais pas l'intention de générer ou de faire référence à des cas fictifs dans cette affaire. C'est clairement une erreur et ce n'est pas quelque chose que je ferais en toute connaissance de cause », a écrit Ke dans sa déposition. « Je n'ai jamais eu l'intention de m'appuyer sur...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
dans les cas les plus fréquents l'IA est co... comme une b... 