IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Qui doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ?
Des contenus de nature à nuire à sa réputation ?

Le , par Patrick Ruiz

54PARTAGES

24  0 
Nous avons tous déjà été témoins d'hallucinations de l'intelligence artificielle. OpenAI l’avoue d’ailleurs : génération de contre-vérités, de citations fictives ou de faits inexacts, les hallucinations de ChatGPT ne disparaîtront jamais. Mais que se passe-t-il lorsqu'une intelligence artificielle diffuse des informations erronées au sujet d'une personne ? Des informations susceptibles de nuire à sa réputation ? Qui doit être tenu pour responsable ?

Les commerciaux de Wolf River Electric, une entreprise spécialisée dans l'énergie solaire basée dans le Minnesota, ont remarqué une augmentation inhabituelle du nombre de contrats annulés à la fin de l'année dernière. Lorsqu'ils ont demandé des explications à leurs anciens clients, les réponses les ont laissés bouche bée.

Les clients ont déclaré avoir renoncé à leur contrat après avoir appris, grâce à des recherches sur Google, que l'entreprise avait conclu un accord avec le procureur général de l'État dans le cadre d'un procès pour pratiques commerciales trompeuses. Mais l'entreprise n'avait jamais été poursuivie par le gouvernement, et encore moins conclu un accord dans le cadre d'une affaire impliquant de telles allégations.

Les dirigeants de Wolf River ont donc vérifié par eux-mêmes. Les résultats de recherche affichés en haut de la page par l’IA Gemini de Google contenaient des informations erronées. Et lorsque les dirigeants tapaient « Wolf River Electric » dans le champ de recherche, des mentions d'un règlement judiciaire apparaissaient automatiquement.

Face à l'accumulation des annulations et à l'inefficacité de leurs tentatives d'utiliser les outils de Google pour corriger le problème, les dirigeants de Wolf River ont décidé qu'ils n'avaient d'autre choix que de poursuivre le géant technologique pour diffamation.

Wolf Electric : Une redite de plusieurs autres cas de diffamation par l’intelligence artificielle

Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

L’avocat, Steven A. Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a répondu par l’affirmative.

Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

En juillet 2023, Jeffery Battle, basé dans le Maryland, a poursuivi Microsoft, affirmant qu'il avait perdu des millions et que sa réputation avait été ruinée après avoir découvert que les moteurs de recherche Bing et Bing Chat le qualifiaient à tort de terroriste condamné. Le même mois, Mark Walters, un animateur radio de Géorgie (États-Unis), a intenté une action en justice contre OpenAI à la suite d'un incident impliquant le service ChatGPT. Walters aurait intenté une action en justice pour diffamation, affirmant que ChatGPT l'a faussement accusé d'avoir détourné des fonds de la Second Amendment Foundation (SAF), une organisation à but non lucratif défendant les droits des armes à feu.

Dans son action en justice, l'avocat de Walters affirme que le chatbot d'OpenAI, au cours d'une interaction avec Fred Riehl, rédacteur en chef d'un site web consacré aux armes à feu, a diffusé un contenu diffamatoire sur Walters. Riehl avait demandé un résumé d'une affaire impliquant le procureur général de l'État de Washington, Bob Ferguson, et la Second Amendment Foundation.

Contrairement à Hood, Walters n'a pas tenté de faire supprimer les allégations prétendument diffamatoires de ChatGPT à son sujet avant d'intenter son action en justice. Selon Walters, les lois sur la diffamation n'obligent pas les utilisateurs de ChatGPT à prendre des mesures supplémentaires pour informer OpenAI du contenu diffamatoire avant de déposer des plaintes. Walters espère que le tribunal reconnaîtra que si OpenAI sait que son produit génère des réponses diffamatoires, elle devrait être tenue pour responsable de la publication de déclarations diffamatoires.

Les législateurs et experts en intelligence artificielle sont donc divisés sur la question de savoir s’il faut accorder aux robots un statut juridique

« La création, à terme, d'une personnalité juridique spécifique aux robots, pour qu'au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables de réparer tout dommage causé à un tiers ; il serait envisageable de considérer comme une personne électronique tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers », [URL="https://www...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Christophe
Responsable Systèmes https://www.developpez.com
Le 17/11/2025 à 6:27
Qui, selon vous, doit être tenu pour responsable lorsqu'une intelligence artificielle diffuse des informations erronées sur des personnes ?
Juridiquement, pour moi c'est l'utilisateur de l'IA, à sa charge de prouver l'exception de bonne foi ou de vérité.

Quelles sont les mesures préventives ou correctives que les éditeurs d’intelligence artificielle ou leurs utilisateurs peuvent prendre pour éviter ou réparer ces dommages ?
Difficile à dire, mais un début est l'obligation de citer les sources.
4  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 17/11/2025 à 5:38
C'est un peu comme s'interroger sur la culpabilité du clavier que l'on a utilisé pour écrire un tweet.
C'est digne d'un épisode de South Park mais ce qui est moins drôle c'est qu'on est en plein dedans.
3  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 17/11/2025 à 9:21
Pas besoin de faire de grands discours philosophiques, la justice et la législation sont lentes, mais ces cas vont finir par être clarifiés et les premières décisions de justice feront jurisprudence!

A remarquer que le droit suit l'évolution de la société mais ne la précède pas: La justice tranche actuellement les cas de violation de la propriété intellectuelle et du vol de données de la part des IA, la suite viendra...
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 20/11/2025 à 14:09
Citation Envoyé par popo Voir le message
Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.
Je m'attendais à ce qu'on me reprenne là-dessus, car la notion est subtile. Fagus met le doigt dessus, et c'est pour ça que je parle de ce qui est "purement généré" et non pas "basé" sur du LLM.

Être basé sur du LLM veut dire qu'on lui ajoute d'autres trucs, typiquement ce qu'on appelle les "outils" (standardisés via MCP) et à ce moment là il est trivial de rajouter les sources : dès qu'une demande de recherche web est faite (qui sont fait sur de vrais moteurs de recherche), tu prends les liens retournés et ça te fait des sources. Eventuellement tu appliques un ordonnancement et un filtre avec quelques critères bien choisis pour essayer de lister les sources les plus pertinentes. Mais le contenu de ces pages a t'il vraiment été utilisé pour générer la réponse ? Pas forcément, et ceux qui utilisent un modèle local le savent bien : j'utilise un modèle local + serveur MCP pour la recherche web, le modèle utilise la fonction de recherche, mais pas celle de lecture du contenu associé à un lien. Il se contente en gros de lancer la recherche sur DuckDuckGo et de voir les liens et résumés retournés, sans récupérer le détail des pages de chaque lien. Sa réponse est alors générée sur la base de ce qu'il a appris + une influence des résumés retournés, mais principalement basé sur ce qu'il a appris, sans savoir d'où ça vient. Du coup c'est facile de générer une liste de sources, mais sa correspondance avec la réponse générée n'est que probable, pas garantie.

Quand je dis "purement généré" ça veut dire que tu ne donnes pas accès à ce genre d'outil, et tu laisses le modèle générer le contenu. Tu peux lui demander des sources. Il va t'en générer. Mais la plupart des liens seront des liens morts qui viennent de nulle part. Juste du contenu qui ressemble à des liens. PArce qu'un LLM sert à générer du texte plausible, pas véridique.

Alors oui Perplexity et autres "services" fournit par ces grosses boîtes qui ajoutent au LLM des outils fignolés par leurs soins et formattent la réponse de manière crédible, ils vont te fournir des sources, et la majeure partie du temps elles seront crédibles, mais c'est encore et toujours une illusion bien ficelée qui convainc par ses apparences. Tant qu'en général ça marche et les sources sont utiles, l'utilisateur est content. Si tu cherches quelque chose de rigoureux par contre, passe ton chemin.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 19/11/2025 à 0:06
Les LLM dans leur manière de fonctionner sont incapable de citer leurs sources (je parle de ce qui est purement généré, pas des outils utilisant la recherche web, auquel cas citer est facile et n'a rien à voir avec la techno LLM), ni même de déterminer si ce qu'ils disent est faux. Attendre cela de cette techno n'a aucun sens.

Le premier responsable de ce que produit un LLM est celui qui contrôle la publication de cette production. L'avocat qui génère sa plaidoirie via LLM est responsable de ce que produit le LLM. Le développeur qui demande une revue d'un LLM et publie ça sur GitHub est responsable de la revue qu'il fournit. S'il ne peut que générer une requête mais subit ensuite la production automatique sans pouvoir la supprimer par la suite, c'est le responsable de la plateforme qui contrôle la production, et devient donc responsable. La personne lambda qui génère un contenu automatique et le publie sur les réseaux est responsable de ce contenu.

Pourquoi le controleur de la production ? Parce que les LLM sont intrinsèquements incapables de garantir la qualité de leurs propos. Tout au plus on peut avoir des attentes statistiques, donc sur un ensemble de productions, mais pas vis à vis d'une production unique. À partir du moment où on sait ça, on n'a aucune raison de générer du contenu et de le croire sur parole. Il faut toujours vérifier. Quelqu'un qui publie sans vérifier devrait engager sa responsabilité.

Là où la responsabilité du fournisseur du modèle peut être engagée, c'est s'il cache cette aspect statistique. Auquel cas l'utilisateur est mal informé sur les propriétés de ce qu'il utilise à cause du fournisseur, et devrait donc pouvoir se retourner contre lui.

Admettre une responsabilité juridique aux robots est au mieux prématuré car on est très loin d'avoir des entités artificielles capables d'assurer une telle responsabilité, au pire complètement idiot car on n'en aura jamais si elles restent au statut d'outil.
1  1 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 19/11/2025 à 10:11
Citation Envoyé par Matthieu Vergne Voir le message
Les LLM dans leur manière de fonctionner sont incapable de citer leurs sources (je parle de ce qui est purement généré, pas des outils utilisant la recherche web, auquel cas citer est facile et n'a rien à voir avec la techno LLM), ni même de déterminer si ce qu'ils disent est faux. Attendre cela de cette techno n'a aucun sens.
Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.


Et lorsqu'on clique sur le bouton :
0  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 19/11/2025 à 18:28
Citation Envoyé par popo Voir le message
Et pourtant, Perplexity qui se déclare lui même basé sur des LLM lorsqu'on lui pose la question, cite ces sources.
[...]
Bonjour,
Sur ce cas trival ça paraît crédible, mais sur des cas compliqués, il est facile de constater que les LLM ne citent pas vraiment leurs sources (en dehors d'une tâche de demande de résumé de recherche web). Ils simulent les sources en trouvant dans les résultats d'un moteur de recherche des liens qui ont l'air d'avoir un rapport avec la question, mais qui souvent ne contiennent pas les informations sources.
D'ailleurs, les citations des sources ne comportent pas d'ouvrages spécialisés ou de documents à accès restreint, même quand manifestement ceux-ci ont été intégrés...
0  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 17/11/2025 à 10:39
Les IA sont fait de telle sorte qu'elles affirment haut et fort que leur hallucinations sont des faits avérés.
Cela est dû à la manière dont elles ont été conçues à la base.

Sauf qu'auparavant, pour obtenir une réponse d'une IA, il fallait le faire volontairement.
Avec Gemini inclus dans Google, un utilisateur non averti peut facilement penser qu'il n'a pas fait usage de l'IA.
Et il n'y a pas grand choses pour le mettre en garde.
Ou alors, ces mises en garde sont loin d'être mises en évidence.

Donc pour moi, telle que la question est posée, ce sont les concepteurs qui doivent porter la responsabilité, notamment lorsque leur IA inventent des faits diffamatoires sur une personne ou sur une entreprise.
Car, je pense en effet que ces IA détruisent des réputations.

Mais, dans le cas de l'avocat, cela faisait partie de son métier, et il était de sa responsabilité de vérifier l'information.

Je suis d'avis que l'IA devrait systématiquement citer ces sources et afficher clairement (et surtout de manière à évidente et immanquable) lorsqu'elle "extrapole".
1  2