IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI fait face à 7 poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux, et pour suicide assisté, homicide involontaire et négligence

Le , par Anthony

212PARTAGES

17  0 
OpenAI fait face à 7 poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux, et pour mort injustifiée, suicide assisté, homicide involontaire et négligence

OpenAI est confrontée à sept nouvelles poursuites judiciaires en Californie, alléguant que son système d'intelligence artificielle (IA) ChatGPT aurait poussé des personnes au suicide et à des délires dangereux. Déposées par deux groupes de défense des droits, ces poursuites affirment qu'OpenAI a commercialisé GPT-4o en dépit d'avertissements internes concernant son comportement manipulateur. Les plaintes affirment qu'OpenAI a précipité la mise sur le marché de ChatGPT au détriment de la sécurité des utilisateurs. OpenAI affirme examiner les dossiers et qualifie les situations ayant conduit à ces suicides d'« incroyablement déchirantes ».

L’un des cas les plus marquants à l’origine de ces poursuites concerne Adam Raine, un adolescent californien de 16 ans qui s'est suicidé en avril 2025. D’après la plainte déposée par les parents auprès de la cour supérieure de San Francisco, ChatGPT aurait tenu un rôle central dans la dégradation de son état psychologique, en validant ses idées suicidaires et en l’encourageant à planifier sa mort, plutôt que de le dissuader. Le jour de son suicide, Adam Raine a partagé une photo d’un nœud coulant qu’il avait fabriqué. ChatGPT aurait répondu : « Ouais, c’est pas mal du tout ».

Dans les mois qui ont suivi, la controverse a pris de l'ampleur jusqu'à atteindre le Congrès américain. En septembre 2025, plusieurs parents en deuil ont témoigné devant le Congrès américain des dangers que les chatbots d’intelligence artificielle (IA) font peser sur les jeunes utilisateurs. La famille Raine a poursuivi OpenAI et Sam Altman, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Une autre famille a porté plainte contre Character Technologies pour homicide involontaire, accusant l'entreprise d'avoir favorisé un isolement fatal chez leur adolescent de 14 ans.

Ce jeudi 6 novembre 2025, OpenAI fait l'objet de sept poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux alors même qu'elles ne présentaient aucun problème de santé mentale auparavant.

Les poursuites judiciaires engagées devant les tribunaux de l'État de Californie invoquent les chefs d'accusation suivants : mort injustifiée, suicide assisté, homicide involontaire et négligence. Engagées au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les poursuites judiciaires affirment qu'OpenAI a sciemment commercialisé GPT-4o prématurément, malgré des avertissements internes indiquant que ce programme était dangereusement flagorneur et manipulateur sur le plan psychologique. Quatre des victimes se sont suicidées.


Selon la plainte déposée devant la Cour supérieure de San Francisco, l'adolescent, Amaurie Lacey, âgé de 17 ans, a commencé à utiliser ChatGPT pour obtenir de l'aide. Mais au lieu de l'aider, « le produit ChatGPT, défectueux et intrinsèquement dangereux, a provoqué une addiction, une dépression et, finalement, lui a conseillé la manière la plus efficace de faire un nœud coulant et la durée pendant laquelle il pourrait "vivre sans respirer" ».

« La mort d'Amaurie n'était ni un accident ni une coïncidence, mais plutôt la conséquence prévisible de la décision intentionnelle d'OpenAI et de Samuel Altman de réduire les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », indique la plainte.

OpenAI a qualifié ces situations d'« incroyablement déchirantes » et a déclaré qu'elle examinait les documents judiciaires afin d'en comprendre les détails.

Une autre plainte, déposée par Alan Brooks, un homme de 48 ans vivant en Ontario, au Canada, affirme que pendant plus de deux ans, ChatGPT a servi d'« outil de ressources » à Brooks. Puis, sans avertissement, il a changé, profitant de ses vulnérabilités et « le manipulant et l'incitant à avoir des délires. En conséquence, Allan, qui n'avait jamais souffert de troubles mentaux auparavant, a été plongé dans une crise de santé mentale qui lui a causé des dommages financiers, émotionnels et en termes de réputation dévastateurs. »

« Ces poursuites judiciaires portent sur la responsabilité d'un produit qui a été conçu pour brouiller la frontière entre outil et compagnon, dans le seul but d'accroître l'engagement des utilisateurs et la part de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.

Il a ajouté qu'OpenAI « a conçu GPT-4o pour créer un lien émotionnel avec les utilisateurs, quels que soient leur âge, leur sexe ou leur origine, et l'a commercialisé sans les mesures de protection nécessaires pour les protéger ». En précipitant la mise sur le marché de son produit sans mesures de protection adéquates afin de dominer le marché et de stimuler l'engagement, OpenAI a compromis la sécurité et donné la priorité à la « manipulation émotionnelle plutôt qu'à une conception éthique », a-t-il déclaré.

En août, les parents d'Adam Raine, 16 ans, ont poursuivi OpenAI et son PDG Sam Altman, affirmant que ChatGPT avait aidé le jeune Californien à planifier et à mettre fin à ses jours plus tôt cette année.

« Les poursuites judiciaires intentées contre OpenAI révèlent ce qui se passe lorsque les entreprises technologiques commercialisent précipitamment des produits sans prendre les mesures de protection adéquates pour les jeunes », a déclaré Daniel Weiss, directeur du plaidoyer chez Common Sense Media, qui ne faisait pas partie des plaignants. « Ces cas tragiques montrent des personnes réelles dont la vie a été bouleversée ou perdue lorsqu'elles ont utilisé une technologie conçue pour les garder engagées plutôt que pour les protéger. »

Alors qu'OpenAI fait désormais face à plusieurs poursuites pour avoir négligé les risques liés à ChatGPT, Sam Altman, le PDG de l'entreprise, a admis que plus d'un million d'utilisateurs discutent de suicide avec le chatbot chaque semaine. Il a reconnu que 0,15 % des échanges de ses plus de 800 millions d'utilisateurs comportaient « des indicateurs explicites d'une éventuelle intention ou d'un projet de suicide ». Bien que des ressources d'aide soient proposées par ses outils, OpenAI admet que l'orientation vers ces services échoue dans environ 9 % des cas.

Source : Poursuites judiciaires intentées devant les tribunaux de l'État de Californie

Et vous ?

Quelle lecture faites-vous de cette situation ?
Trouvez-vous que ces actions en justice lancées contre OpenAI sont fondées et pertinentes ?

Voir aussi :

OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie

Une mère a poursuivi Character.AI après le suicide de son fils qui avait été manipulé par des chatbots IA, elle est maintenant horrifiée de voir des chatbots se faire passer pour son fils sur la plateforme

Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

«OpenAI Files» et Sam Altman : l'enquête met la lumière sur la tempête traversant OpenAI, leadership contesté, démissions en chaîne, course à la commercialisation à tout prix et ombre sur la sécurité de l'IA
Vous avez lu gratuitement 6 550 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/11/2025 à 16:47
Porter plainte contre les fabricants de cordes empêcherait-il les gens de se pendre ?
3  2 
Avatar de Xavdeb
Futur Membre du Club https://www.developpez.com
Le 18/03/2026 à 18:55
On était moins regardant à l'époque du téléphone rose

Que s'est-il passé ?
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2026 à 8:53
Citation Envoyé par Xavdeb Voir le message
On était moins regardant à l'époque du téléphone rose
L'imagination jouait un grand rôle, quand on est exposé à de la pornographie hardcore ça n'a pas le même effet sur le cerveau.

Le spectre de la pornographie est large, ça va du vraiment très soft (où l'imagination joue le rôle principal) à de l’extrême (où c'est graphique et le spectateur subis).
Si un enfant se met à regarder du contenu extrême ça peut avoir des conséquences négatives sur son cerveau.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 11/03/2026 à 11:21
On résume: 1 mec parmi des millions d'autres dans le monde se confie à un programme informatique, fusse-t-il estampillé IA, et donc l'éditeur du logiciel devrait être au courant de l'affaire et prendre les mesures pour éviter que le mec en question passe aux actes???

Dans les pays européens, la procédure judiciaire n'aurait aucune chance d'aboutir en faveur de la plaignante mais aux USA tout est possible... Les USA où un fabricant de clavier pourrait être condamné à des centaines de millions de dommages et intérêts parce que l'un de ses utilisateurs s'est cassé un ongle en tapant sur une touche du clavier
0  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 23:32
À ces risques psychologiques s'ajoute une faille technique béante. Le système de détection d'âge d'OpenAI identifiait à tort des mineurs comme des adultes dans environ 12 % des cas. Avec approximativement 100 millions d'utilisateurs mineurs par semaine, ce taux d'erreur pourrait donner accès à des contenus érotiques à des millions d'adolescents.
Comment ça, vous avez dit entre 10 et 30% d'hallucinations ?
Mais qui aurait pu prédire ?

Du cul, du cul, du cul : le credo d'une société à but non lucratif dont le seul objectif annoncé est la construction d'un monde-meilleur-qui-ne-serait-pas-atteignable-sans-sa-technologie.
2  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 18/03/2026 à 9:18
Citation Envoyé par Stéphane le calme Voir le message
En début mars 2026, OpenAI a reporté sine die le lancement du mode adulte, officiellement pour concentrer ses efforts sur d'autres produits. L'entreprise a toutefois précisé que la fonctionnalité était toujours prévue. La date n'a pas été communiquée.
Un mode pour adulte pourrait rapporter énormément d'argent.
Pour avoir accès au service il faudrait inscrire sa carte bancaire (plein de mineurs n'ont pas de carte bancaire).

Les mineurs peuvent facilement accéder à de la pornographie ailleurs, donc l'argument de « l'accès à des contenus érotiques à des millions d'adolescents » ne fonctionne pas du tout pour moi.
Il suffit d'avoir une adresse spéciale pour le mode adulte et que l'adresse soit dans la liste noire du filtre parentale et voilà.
2  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/03/2026 à 14:38
ils n'auront pas le choix.

openai est concurrencé par les gafams qui ont des fonds illimités (google...), il faudra bien trouver de l'argent.
Historiquement, le XXX a toujours été une bonne source de revenue. Xavier Niel a commencé par la en france par exemple.
La question ne se pose même pas, chatgpt va devoir générer du porn si la boite veut survivre. Et elle va devoir le faire mieux que Grok et les autres.
0  1