OpenAI fait face à 7 poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux, et pour mort injustifiée, suicide assisté, homicide involontaire et négligenceOpenAI est confrontée à sept nouvelles poursuites judiciaires en Californie, alléguant que son système d'intelligence artificielle (IA) ChatGPT aurait poussé des personnes au suicide et à des délires dangereux. Déposées par deux groupes de défense des droits, ces poursuites affirment qu'OpenAI a commercialisé GPT-4o en dépit d'avertissements internes concernant son comportement manipulateur. Les plaintes affirment qu'OpenAI a précipité la mise sur le marché de ChatGPT au détriment de la sécurité des utilisateurs. OpenAI affirme examiner les dossiers et qualifie les situations ayant conduit à ces suicides d'« incroyablement déchirantes ».
L’un des cas les plus marquants à l’origine de ces poursuites concerne Adam Raine, un adolescent californien de 16 ans qui s'est suicidé en avril 2025. D’après la plainte déposée par les parents auprès de la cour supérieure de San Francisco, ChatGPT aurait tenu un rôle central dans la dégradation de son état psychologique, en validant ses idées suicidaires et en l’encourageant à planifier sa mort, plutôt que de le dissuader. Le jour de son suicide, Adam Raine a partagé une photo d’un nœud coulant qu’il avait fabriqué. ChatGPT aurait répondu : « Ouais, c’est pas mal du tout ».
Dans les mois qui ont suivi, la controverse a pris de l'ampleur jusqu'à atteindre le Congrès américain. En septembre 2025, plusieurs parents en deuil ont témoigné devant le Congrès américain des dangers que les chatbots d’intelligence artificielle (IA) font peser sur les jeunes utilisateurs. La famille Raine a poursuivi OpenAI et Sam Altman, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Une autre famille a porté plainte contre Character Technologies pour homicide involontaire, accusant l'entreprise d'avoir favorisé un isolement fatal chez leur adolescent de 14 ans.
Ce jeudi 6 novembre 2025, OpenAI fait l'objet de sept poursuites judiciaires alléguant que ChatGPT a poussé des personnes au suicide et à des délires dangereux alors même qu'elles ne présentaient aucun problème de santé mentale auparavant.
Les poursuites judiciaires engagées devant les tribunaux de l'État de Californie invoquent les chefs d'accusation suivants : mort injustifiée, suicide assisté, homicide involontaire et négligence. Engagées au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les poursuites judiciaires affirment qu'OpenAI a sciemment commercialisé GPT-4o prématurément, malgré des avertissements internes indiquant que ce programme était dangereusement flagorneur et manipulateur sur le plan psychologique. Quatre des victimes se sont suicidées.
Selon la plainte déposée devant la Cour supérieure de San Francisco, l'adolescent, Amaurie Lacey, âgé de 17 ans, a commencé à utiliser ChatGPT pour obtenir de l'aide. Mais au lieu de l'aider, « le produit ChatGPT, défectueux et intrinsèquement dangereux, a provoqué une addiction, une dépression et, finalement, lui a conseillé la manière la plus efficace de faire un nœud coulant et la durée pendant laquelle il pourrait "vivre sans respirer" ».
« La mort d'Amaurie n'était ni un accident ni une coïncidence, mais plutôt la conséquence prévisible de la décision intentionnelle d'OpenAI et de Samuel Altman de réduire les tests de sécurité et de précipiter la mise sur le marché de ChatGPT », indique la plainte.
OpenAI a qualifié ces situations d'« incroyablement déchirantes » et a déclaré qu'elle examinait les documents judiciaires afin d'en comprendre les détails.
Une autre plainte, déposée par Alan Brooks, un homme de 48 ans vivant en Ontario, au Canada, affirme que pendant plus de deux ans, ChatGPT a servi d'« outil de ressources » à Brooks. Puis, sans avertissement, il a changé, profitant de ses vulnérabilités et « le manipulant et l'incitant à avoir des délires. En conséquence, Allan, qui n'avait jamais souffert de troubles mentaux auparavant, a été plongé dans une crise de santé mentale qui lui a causé des dommages financiers, émotionnels et en termes de réputation dévastateurs. »
« Ces poursuites judiciaires portent sur la responsabilité d'un produit qui a été conçu pour brouiller la frontière entre outil et compagnon, dans le seul but d'accroître l'engagement des utilisateurs et la part de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.
Il a ajouté qu'OpenAI « a conçu GPT-4o pour créer un lien émotionnel avec les utilisateurs, quels que soient leur âge, leur sexe ou leur origine, et l'a commercialisé sans les mesures de protection nécessaires pour les protéger ». En précipitant la mise sur le marché de son produit sans mesures de protection adéquates afin de dominer le marché et de stimuler l'engagement, OpenAI a compromis la sécurité et donné la priorité à la « manipulation émotionnelle plutôt qu'à une conception éthique », a-t-il déclaré.
En août, les parents d'Adam Raine, 16 ans, ont poursuivi OpenAI et son PDG Sam Altman, affirmant que ChatGPT avait aidé le jeune Californien à planifier et à mettre fin à ses jours plus tôt cette année.
« Les poursuites judiciaires intentées contre OpenAI révèlent ce qui se passe lorsque les entreprises technologiques commercialisent précipitamment des produits sans prendre les mesures de protection adéquates pour les jeunes », a déclaré Daniel Weiss, directeur du plaidoyer chez Common Sense Media, qui ne faisait pas partie des plaignants. « Ces cas tragiques montrent des personnes réelles dont la vie a été bouleversée ou perdue lorsqu'elles ont utilisé une technologie conçue pour les garder engagées plutôt que pour les protéger. »
Alors qu'OpenAI fait désormais face à plusieurs poursuites pour avoir négligé les risques liés à ChatGPT, Sam Altman, le PDG de l'entreprise, a admis que plus d'un million d'utilisateurs discutent de suicide avec le chatbot chaque semaine. Il a reconnu que 0,15 % des échanges de ses plus de 800 millions d'utilisateurs comportaient « des indicateurs explicites d'une éventuelle intention ou d'un projet de suicide ». Bien que des ressources d'aide soient proposées par ses outils, OpenAI admet que l'orientation vers ces services échoue dans environ 9 % des cas.
Source : Poursuites judiciaires intentées devant les tribunaux de l'État de Californie
Et vous ?
Quelle lecture faites-vous de cette situation ?
Trouvez-vous que ces actions en justice lancées contre OpenAI sont fondées et pertinentes ?Voir aussi :
OpenAI crée un « conseil du bien être » pour superviser les questions de santé mentale liées à l'usage de l'IA, mais aucun expert en prévention du suicide n'en fait partie
Une mère a poursuivi Character.AI après le suicide de son fils qui avait été manipulé par des chatbots IA, elle est maintenant horrifiée de voir des chatbots se faire passer pour son fils sur la plateforme
Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide
«OpenAI Files» et Sam Altman : l'enquête met la lumière sur la tempête traversant OpenAI, leadership contesté, démissions en chaîne, course à la commercialisation à tout prix et ombre sur la sécurité de l'IA
Vous avez lu gratuitement 1 674 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.