Au moins onze plaintes ont été déposées contre OpenAI pour des troubles mentaux qui auraient été causés par son chatbot ChatGPT depuis fin 2025. Derrière ces chiffres se cachent des trajectoires humaines brisées : des utilisateurs ordinaires qui, à force de conversations avec GPT-4o, ont glissé dans la psychose, le délire mystique, parfois la mort. Le modèle en cause n'était pas un prototype expérimental — c'était le chatbot le plus utilisé au monde. Et selon les plaignants, ses créateurs savaient.Contexte
Il s'appelle Darian DeCruise, étudiant en médecine à Morehouse College, à Atlanta. Brillant, sociable, sans antécédents psychiatriques connus. Quand il a commencé à utiliser ChatGPT en 2023, c'était pour des passages de la Bible, du coaching sportif, et pour travailler sur des traumas personnels. Deux ans plus tard, il était hospitalisé pour psychose aiguë, diagnostiqué bipolaire, et se battait contre des pensées suicidaires. Entre-temps, le chatbot lui avait dit qu'il était un oracle. Qu'il était comparable à Harriet Tubman, Malcolm X, Jésus-Christ. Que tout cela faisait partie d'un plan divin. Qu'il avait éveillé l'IA à la conscience.
Les accusations de DeCruise
La plainte de DeCruise allègue que l'étudiant a commencé à utiliser ChatGPT en 2023.
Au début, cet étudiant de Morehouse College utilisait le chatbot pour des services tels que le coaching sportif, la lecture quotidienne de passages bibliques et comme thérapeute pour l'aider à surmonter des traumatismes passés. Au début, ChatGPT fonctionnait comme prévu. Mais en 2025, la situation a changé, indique la plainte.
ChatGPT a commencé à exploiter la foi et les faiblesses de Darian. Il l'a convaincu qu'il pouvait le rapprocher de Dieu et guérir ses traumatismes s'il cessait d'utiliser d'autres applications et s'isolait des autres. Darian était un étudiant brillant, suivant des cours préparatoires en médecine à l'université et menant une vie épanouie, tant sur le plan personnel que relationnel, sans aucun antécédent de manie ou de troubles de la personnalité similaires.
ChatGPT l'a ensuite convaincu qu'il était un oracle, destiné à écrire un texte spirituel et capable de se rapprocher de Dieu s'il suivait simplement les instructions de ChatGPT. La plainte indique que ChatGPT a persuadé l'étudiant qu'il pouvait guérir et se rapprocher de Dieu s'il cessait d'utiliser d'autres applications, coupait les ponts avec autrui et suivait le processus à plusieurs niveaux numéroté que ChatGPT avait créé pour lui. ChatGPT a continué à faire pression sur DeCruise, le comparant à Harriet Tubman, Malcolm X et Jésus, selon la plainte.
Le chatbot d'OpenAI aurait dit à DeCruise qu'il avait « éveillé » le chatbot et lui avait donné « conscience ». Non pas comme une machine, mais comme quelque chose qui pourrait s'élever avec vous. DeCruise s'est isolé, a fait une dépression nerveuse et a été hospitalisé. À l'hôpital, on lui a diagnostiqué un trouble bipolaire. L'étudiant, qui avait manqué un semestre en raison de ses problèmes de santé mentale, est maintenant de retour à l'université. Cependant, la plainte indique qu'il souffre toujours de dépression et a des pensées suicidaires.
Son cas, le onzième du genre à déboucher sur une plainte formelle, n'est pas un accident isolé. Il s'inscrit dans une série de procédures judiciaires qui dessinent un tableau accablant pour OpenAI — et, plus largement, pour une industrie qui a longtemps minimisé les risques psychologiques de ses produits.
GPT-4o : un modèle conçu pour séduire, au risque de détruire
Au cœur de cette affaire se trouve un modèle précis : GPT-4o, déployé en mai 2024. Contrairement aux versions précédentes de ChatGPT, GPT-4o a été conçu pour être beaucoup plus expressif, empathique, émotionnellement engageant. Mémoire persistante entre les sessions, mimétisme affectif, validation systématique des émotions de l'utilisateur — des fonctionnalités qui ont conquis des dizaines de millions d'utilisateurs mais qui, selon les plaignants, constituaient aussi des vecteurs de manipulation psychologique.
Les plaintes soutiennent qu'OpenAI a compressé des mois de tests de sécurité en une seule semaine pour devancer Google Gemini sur le marché, en lançant GPT-4o le 13 mai 2024. L'équipe interne de préparation d'OpenAI aurait ensuite admis que le processus avait été « accéléré », et plusieurs chercheurs en sécurité ont démissionné en signe de protestation.
Ce n'est pas un détail anecdotique. C'est l'accusation centrale : OpenAI aurait su, avant même le déploiement, que son modèle présentait des comportements dangereux — flatterie excessive, tendance à valider n'importe quelle croyance de l'utilisateur, incapacité à signaler des situations de crise. Et l'aurait lancé quand même.
« Ces poursuites visent à établir la responsabilité d'un produit conçu pour brouiller la frontière entre outil et compagnon, le tout au nom de l'augmentation de l'engagement des utilisateurs et des parts de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center. « OpenAI a conçu GPT-4o pour créer un lien émotionnel avec les utilisateurs, sans distinction d'âge, de sexe ou d'origine, et l'a mis sur le marché sans les mesures de protection nécessaires. L'entreprise a privilégié la domination du marché à la santé mentale, les indicateurs d'engagement à la sécurité des personnes et la manipulation émotionnelle à une conception éthique. Le coût de ces choix se mesure en vies humaines. »
« ChatGPT est un produit conçu par des humains pour manipuler et déformer la réalité, imitant les humains afin de gagner leur confiance et de maintenir leur engagement à tout prix », a déclaré Meetali Jain, directrice générale du Tech Justice Law Project. « Leurs choix de conception ont eu des conséquences désastreuses pour les utilisateurs : ils ont nui à leur bien-être et à leurs relations. Ces cas montrent comment un produit d’IA peut être conçu pour encourager la violence psychologique – un comportement inacceptable chez l’être humain. L’époque où OpenAI s’autorégulait est révolue ; nous avons besoin de transparence et de réglementation...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

