La plupart des lecteurs connaissent maintenant l'avocat qui s'est tourné vers ChatGPT pour effectuer des recherches juridiques. Steven Schwartz, qui exerçait le droit à New York, a admis avoir utilisé l'outil d'IA qui crée des textes réalistes à partir des données fournies par l'utilisateur pour l'aider dans ses recherches juridiques. Il n'a pas vérifié les cas fournis par ChatGPT et a cité sans le savoir plusieurs cas inexistants dans son mémoire.
Les fausses citations ont été portées à l'attention de Schwartz par l'avocat de la partie adverse et par le tribunal, qui a découvert la supercherie. Au lieu de vérifier les cas par exemple à l'aide d'une base de données de recherche juridique, Schwartz s'est rendu sur ChatGPT et a demandé à l'outil de confirmer la véracité des cas. ChatGPT, qui est incapable de comprendre ce qui est vrai ou faux, a répondu par l'affirmative. Schwartz a depuis été sanctionné pour mauvaise conduite.
Après la mise en garde de Schwartz, on pourrait penser que les avocats seraient plus prudents quant à l'utilisation d'outils tels que ChatGPT et vérifieraient sûrement la véracité de leur travail. Pourtant, les avocats continuent de commettre cette erreur.
Une autre affaire au Canada
Ces affaires auraient constitué un précédent convaincant pour un père divorcé d'emmener ses enfants en Chine - si elles avaient été réelles. Mais au lieu de savourer sa victoire au tribunal, l'avocate vancouvéroise d'un millionnaire impliqué dans une séparation acrimonieuse a été sommée de dédommager personnellement les avocats de l'ex-femme de son client pour le temps qu'il leur a fallu pour apprendre que les affaires qu'elle espérait citer avaient été inventées par ChatGPT.
Chong Ke représente Wei Chen, un homme d’affaires dont la valeur nette — selon les procédures de divorce en Chine — serait comprise entre 70 et 90 millions de dollars. L’ex-femme de Chen, Nina Zhang, vit avec leurs trois enfants dans une maison de 8,4 millions de dollars à West Vancouver.
En décembre dernier, le tribunal a ordonné à Chen de verser à Zhang une pension alimentaire de 16 062 dollars par mois, après avoir calculé que son revenu annuel s'élevait à un million de dollars.
Ke a alors déposé une demande au nom de Chen pour obtenir une ordonnance autorisant ses enfants à se rendre en Chine. L'avis de demande citait deux affaires : l'une dans laquelle une mère avait emmené son « enfant, âgé de 7 ans, en Inde pendant six semaines » et l'autre dans laquelle il avait été fait droit à la « demande d'une mère de voyager avec son enfant, âgé de 9 ans, en Chine pendant quatre semaines pour rendre visite à ses parents et à ses amis ».
« Ces affaires sont au cœur de la controverse qui m’oppose, car elles se sont révélées inexistantes », a écrit le juge David Masuhara de la Cour suprême de la Colombie-Britannique dans une décision.
Le problème a été découvert lorsque les avocats de Zhang ont demandé à Ke de leur fournir des copies des affaires pour préparer une réponse et qu’ils n’ont pas pu les localiser par leurs identifiants de citation. Ke a ensuite appris que les affaires avaient été créées par ChatGPT, un outil d’IA capable de générer du texte à partir d’un mot-clé ou d’une phrase. Il s’agit d’une version améliorée de GPT-3, le modèle de langage naturel le plus avancé au monde, développé par OpenAI.
Ke a retiré les affaires de la demande et présenté une lettre d’excuses ainsi qu’une admission que les affaires étaient fausses à un associé qui devait comparaître à une audience à sa place, mais l’affaire n’a pas été entendue ce jour-là et l’associé n’a pas remis une copie aux avocats de Zhang. Masuhara a déclaré que l'avocate avait ensuite fait une déclaration sous serment soulignant son « manque de connaissance » des risques liés à l'utilisation de ChatGPT et « sa découverte que les cas étaient fictifs, ce qu'elle décrit comme étant "mortifiant" ».
« Je n'avais pas l'intention de générer ou de faire référence à des cas fictifs dans cette affaire. C'est clairement une erreur et ce n'est pas quelque chose que je ferais en toute connaissance de cause », a écrit Ke dans sa déposition. « Je n'ai jamais eu l'intention de m'appuyer sur des autorités fictives ou d'induire le tribunal en erreur ».
La sanction
Malgré la popularité des chatbots, qui sont formés à partir d'un grand nombre de données, les programmes sont également sujets à des erreurs, connues sous le nom « d'hallucinations ».
Les avocats représentant la mère ont qualifié la conduite de Ke de « répréhensible et méritant d'être réprimandée » parce qu'elle a entraîné « un temps et des dépenses considérables » pour déterminer si les cas qu'elle avait cités étaient réels. Ils ont demandé que des frais spéciaux soient accordés, mais le juge chargé de l'affaire a rejeté cette demande, estimant qu'une telle « mesure extraordinaire » nécessiterait « une conclusion de conduite répréhensible ou un abus de procédure » de la part de l'avocate.
« Citer de fausses affaires dans les dossiers et autres documents remis au tribunal constitue un abus de procédure et équivaut à faire une fausse déclaration au tribunal », a écrit le juge David Masuhara. « Si l'on n'y prend garde, cela peut conduire à une erreur judiciaire ». La compétence dans la sélection et l’utilisation de tout outil technologique, y compris ceux alimentés par l’IA, est essentielle.
Il a constaté que l'avocat de la partie adverse disposait de « beaucoup de ressources » et avait déjà produit des « volumes » de documents dans l'affaire. « Il n'y avait aucune chance que les deux fausses affaires soient passées entre les mailles du filet », selon lui. Masuhara a déclaré que les actions de Ke avaient produit « une publicité négative importante » et qu'elle était « naïve quant aux risques liés à l'utilisation de ChatGPT », mais il a estimé qu'elle avait pris des mesures pour corriger ses erreurs.
« Je ne pense pas qu'elle ait eu l'intention de tromper ou d'induire en erreur. J'accepte la sincérité des excuses présentées par Ke à son avocat et au tribunal. Ses regrets ont été clairement exprimés lors de sa comparution et de ses observations orales devant le tribunal ».
Malgré le refus de Masuhara d'accorder des dépens spéciaux, l'ordre des avocats de la Colombie-Britannique enquête maintenant sur la conduite de Ke : « Tout en reconnaissant les avantages potentiels de l'utilisation de l'IA dans la prestation de services juridiques, la Law Society a également publié des conseils aux avocats sur l'utilisation appropriée de l'IA, et s'attend à ce que les avocats se conforment aux normes de conduite attendues d'un avocat compétent s'ils utilisent l'IA pour servir leurs clients », a déclaré une porte-parole, Christine Tam, dans un communiqué.
Les réactions
L’incident a suscité des réactions mitigées dans la communauté juridique canadienne. Certains ont exprimé leur inquiétude face à la possibilité que l’IA soit utilisée pour fabriquer de fausses preuves ou induire le tribunal en erreur. D’autres ont souligné les avantages potentiels de l’IA pour améliorer l’efficacité, la qualité et l’accessibilité des services juridiques.
Les systèmes d'IA peuvent être programmés pour analyser de grandes quantités de données, reconnaître des tendances et faire des prédictions ou des décisions basées sur cette analyse. Les technologies d'IA comprennent l'apprentissage automatique, les réseaux neuronaux, le traitement du langage naturel et la robotique. L'objectif de l'IA est de créer des machines intelligentes capables d'effectuer des tâches de manière plus efficace, précise et autonome que les humains.
Dans le domaine juridique, ses applications sont multiples :
- Recherche juridique améliorée : L'IA peut parcourir et analyser rapidement d'énormes volumes de textes légaux.
- Analyses approfondies : Elle détecte des tendances et des modèles dans la jurisprudence.
- Services clients de base : Automatisation des réponses aux questions fréquentes.
- Assistance à la recherche : Comparable à celle d'un assistant humain, mais avec une plus grande précision et rapidité.
Si ChatGPT est conçu pour une utilisation générale, il existe des outils prévus pour des cas plus particuliers. Dans le cadre de la profession d'avocat, un outil comme Case Law Analytics utilise l'IA et la modélisation mathématique pour quantifier le risque judiciaire. Cette méthode ne vise pas à donner une réponse unique mais à présenter toutes les décisions possibles avec leur probabilité d'occurrence. En collaboration étroite entre juristes et mathématiciens, jusqu'à 100 critères clés influençant les décisions judiciaires sont analysés, reproduisant le raisonnement des magistrats.
De plus, Monica Goyal de Canadian Lawyer pense que les outils d'IA sont progressivement moins sujet à des hallucinations :
J'ai rencontré de nombreux avocats qui se méfient des solutions d'IA générative en raison de cas comme celui de Schwartz et de la nature problématique des hallucinations. Toutefois, des progrès dans la technologie de l'IA apparaissent rapidement pour résoudre ce problème. La génération augmentée par récupération (RAG) est l'une de ces solutions. La RAG est une technique qui améliore les résultats des grands modèles de langage (LLM), comme le GPT, en récupérant des informations pertinentes à partir de sources externes. Le RAG vise à surmonter les limites des hallucinations en fournissant aux LLM un contexte et des faits supplémentaires qui améliorent la précision, la fiabilité et la crédibilité de leurs réponses. Il s'agit d'un assistant pour les gestionnaires du droit d'auteur, qui récupère la jurisprudence et les précédents pertinents. Les systèmes qui utilisent RAG citeront des sources sur lesquelles les utilisateurs peuvent facilement cliquer et confirmer que le texte généré est correct, réduisant ainsi les inexactitudes et améliorant la confiance dans les technologies d'IA générative.
Il existe déjà plusieurs solutions technologiques juridiques qui intègrent l'utilisation des RAG et ne présentent pas le problème des hallucinations. Cette technologie aura probablement un impact significatif sur la recherche juridique et la rédaction de documents, qui peuvent être des tâches très chronophages. Imaginez plutôt la rédaction d'un mémo de recherche juridique qui reprend vos éléments de preuve et la jurisprudence avec les citations appropriées.
Il existe déjà plusieurs solutions technologiques juridiques qui intègrent l'utilisation des RAG et ne présentent pas le problème des hallucinations. Cette technologie aura probablement un impact significatif sur la recherche juridique et la rédaction de documents, qui peuvent être des tâches très chronophages. Imaginez plutôt la rédaction d'un mémo de recherche juridique qui reprend vos éléments de preuve et la jurisprudence avec les citations appropriées.
Et vous ?
Que pensez-vous de l’utilisation de l’IA pour générer des affaires juridiques ? Est-ce une pratique acceptable ou condamnable ?
Quels sont les avantages et les inconvénients de l’IA pour le domaine juridique ? Comment l’IA peut-elle améliorer ou nuire à la qualité et à l’accessibilité des services juridiques ?
Quelles sont les mesures à prendre pour prévenir et détecter les abus ou les erreurs liés à l’IA dans le domaine juridique ? Quelles sont les responsabilités des avocats, des juges, des régulateurs et des développeurs d’IA ?
Quelles sont les compétences et les connaissances nécessaires pour les avocats qui utilisent l’IA dans leur pratique ? Comment les avocats peuvent-ils se former et se tenir au courant des évolutions technologiques ?
Quels sont les principes éthiques et déontologiques à respecter pour l’utilisation de l’IA dans le domaine juridique ? Comment assurer la transparence, la sécurité, la confidentialité, la fiabilité et l’équité de l’IA ?