IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Qui doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ?
Des contenus de nature à nuire à sa réputation ?

Le , par Patrick Ruiz

4PARTAGES

23  0 
Nous avons tous déjà été témoins d'hallucinations de l'intelligence artificielle. OpenAI l’avoue d’ailleurs : génération de contre-vérités, de citations fictives ou de faits inexacts, les hallucinations de ChatGPT ne disparaîtront jamais. Mais que se passe-t-il lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ? Des informations susceptibles de nuire à sa réputation ? Qui doit être tenu pour responsable ?

Les commerciaux de Wolf River Electric, une entreprise spécialisée dans l'énergie solaire basée dans le Minnesota, ont remarqué une augmentation inhabituelle du nombre de contrats annulés à la fin de l'année dernière. Lorsqu'ils ont demandé des explications à leurs anciens clients, les réponses les ont laissés bouche bée.

Les clients ont déclaré avoir renoncé à leur contrat après avoir appris, grâce à des recherches sur Google, que l'entreprise avait conclu un accord avec le procureur général de l'État dans le cadre d'un procès pour pratiques commerciales trompeuses. Mais l'entreprise n'avait jamais été poursuivie par le gouvernement, et encore moins conclu un accord dans le cadre d'une affaire impliquant de telles allégations.

Les dirigeants de Wolf River ont donc vérifié par eux-mêmes. Les résultats de recherche affichés en haut de la page par l’IA Gemini de Google contenaient des informations erronées. Et lorsque les dirigeants tapaient « Wolf River Electric » dans le champ de recherche, des mentions d'un règlement judiciaire apparaissaient automatiquement.

Face à l'accumulation des annulations et à l'inefficacité de leurs tentatives d'utiliser les outils de Google pour corriger le problème, les dirigeants de Wolf River ont décidé qu'ils n'avaient d'autre choix que de poursuivre le géant technologique pour diffamation.

Wolf Electric : Une redite de plusieurs autres cas de diffamation par l’intelligence artificielle

Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a répondu par l’affirmative.

Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

En juillet 2023, Jeffery Battle, basé dans le Maryland, a poursuivi Microsoft, affirmant qu'il avait perdu des millions et que sa réputation avait été ruinée après avoir découvert que les moteurs de recherche Bing et Bing Chat le qualifiaient à tort de terroriste condamné. Le même mois, Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

Contrairement à Hood, Walters n'a pas tenté de faire supprimer les allégations prétendument diffamatoires de ChatGPT à son sujet avant d'intenter son action en justice. Selon Walters, les lois sur la diffamation n'obligent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra que si OpenAI sait que son produit génère des réponses diffamatoires, elle devrait être tenue pour responsable de la publication de déclarations diffamatoires.

Les législateurs et experts en intelligence artificielle sont donc divisés sur la question de savoir s’il faut accorder aux robots un statut juridique

« La création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers », [URL="https://www...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Christophe
Responsable Systèmes https://www.developpez.com
Le 17/11/2025 à 6:27
Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?
Juridiquement, pour moi c'est l'utilisateur de l'IA, à sa charge de prouver l'exception de bonne foi ou de vérité.

Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?
Difficile à dire, mais un début est l'obligation de citer les sources.
3  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 17/11/2025 à 5:38
C'est un peu comme s'interroger sur la culpabilité du clavier que l'on a utilisé pour écrire un tweet.
C'est digne d'un épisode de South Park mais ce qui est moins drôle c'est qu'on est en plein dedans.
2  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 17/11/2025 à 9:21
Pas besoin de faire de grands discours philosophiques, la justice et la législation sont lentes, mais ces cas vont finir par être clarifiés et les premières décisions de justice feront jurisprudence!

A remarquer que le droit suit l'évolution de la société mais ne la précède pas: La justice tranche actuellement les cas de violation de la propriété intellectuelle et du vol de données de la part des IA, la suite viendra...
1  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 17/11/2025 à 10:39
Les IA sont fait de telle sorte qu'elles affirment haut et fort que leur hallucinations sont des faits avérés.
Cela est dû à la manière dont elles ont été conçues à la base.

Sauf qu'auparavant, pour obtenir une réponse d'une IA, il fallait le faire volontairement.
Avec Gemini inclus dans Google, un utilisateur non averti peut facilement penser qu'il n'a pas fait usage de l'IA.
Et il n'y a pas grand choses pour le mettre en garde.
Ou alors, ces mises en garde sont loin d'être mises en évidence.

Donc pour moi, telle que la question est posée, ce sont les concepteurs qui doivent porter la responsabilité, notamment lorsque leur IA inventent des faits diffamatoires sur une personne ou sur une entreprise.
Car, je pense en effet que ces IA détruisent des réputations.

Mais, dans le cas de l'avocat, cela faisait partie de son métier, et il était de sa responsabilité de vérifier l'information.

Je suis d'avis que l'IA devrait systématiquement citer ces sources et afficher clairement (et surtout de manière à évidente et immanquable) lorsqu'elle "extrapole".
0  1