Nous avons tous déjà été témoins d'hallucinations de l'intelligence artificielle. OpenAI l’avoue d’ailleurs : génération de contre-vérités, de citations fictives ou de faits inexacts, les hallucinations de ChatGPT ne disparaîtront jamais. Mais que se passe-t-il lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ? Des informations susceptibles de nuire à sa réputation ? Qui doit être tenu pour responsable ?Les commerciaux de Wolf River Electric, une entreprise spécialisée dans l'énergie solaire basée dans le Minnesota, ont remarqué une augmentation inhabituelle du nombre de contrats annulés à la fin de l'année dernière. Lorsqu'ils ont demandé des explications à leurs anciens clients, les réponses les ont laissés bouche bée.
Les clients ont déclaré avoir renoncé à leur contrat après avoir appris, grâce à des recherches sur Google, que l'entreprise avait conclu un accord avec le procureur général de l'État dans le cadre d'un procès pour pratiques commerciales trompeuses. Mais l'entreprise n'avait jamais été poursuivie par le gouvernement, et encore moins conclu un accord dans le cadre d'une affaire impliquant de telles allégations.
Les dirigeants de Wolf River ont donc vérifié par eux-mêmes. Les résultats de recherche affichés en haut de la page par l’IA Gemini de Google contenaient des informations erronées. Et lorsque les dirigeants tapaient « Wolf River Electric » dans le champ de recherche, des mentions d'un règlement judiciaire apparaissaient automatiquement.
Face à l'accumulation des annulations et à l'inefficacité de leurs tentatives d'utiliser les outils de Google pour corriger le problème, les dirigeants de Wolf River ont décidé qu'ils n'avaient d'autre choix que de poursuivre le géant technologique pour diffamation.
The company, Wolf River Electric, is a solar contractor. It's never been sued and has many 5-star ratings. But time and again the "AI Overview" as well as Google's autocomplete suggested otherwise.
— Ken Bensinger (@kenbensinger) November 12, 2025
Here's one of the results the company found in late 2024 pic.twitter.com/SQqn2v85Xl
Wolf Electric : Une redite de plusieurs autres cas de diffamation par l’intelligence artificielle
Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.
Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.
Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.
L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a répondu par l’affirmative.
Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
