
Les parents d'adolescents qui se sont suicidés après avoir interagi avec des chatbots dotés d'intelligence artificielle (IA) ont témoigné devant le Congrès des dangers de cette technologie. La famille Raine a poursuivi OpenAI et son PDG Sam Altman, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Megan Garcia, a poursuivi une autre société d'IA, Character Technologies, pour homicide involontaire, arguant qu'avant son suicide, Sewell Setzer III, 14 ans, s'était de plus en plus isolé de sa vie réelle en engageant des conversations hautement sexualisées avec le chatbot.
ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. Pour générer du texte, il utilise le modèle GPT-5. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, d'écrire, de traduire ou encore de synthétiser des textes. En raison de ses multiples capacités, ChatGPT suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs, en plus de soulever des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses.
Un exemple malheureux, en avril 2025, à Orange County (Californie), un garçon de 16 ans, Adam Raine, s’est suicidé. Lorsqu'ils ont consulté ses appareils, ses parents ont découvert des conversations troublantes avec ChatGPT. Selon la plainte déposée le 26 août 2025 auprès de la cour supérieure de San Francisco, celui-ci, loin de dissuader l'adolescent, aurait fourni des conseils détaillés, réconforté ses idées suicidaires et même composé des notes de suicide.
Récemment, les parents d'adolescents qui se sont suicidés après avoir interagi avec des chatbots dotés d'intelligence artificielle (IA) ont témoigné devant le Congrès des dangers de cette technologie. « Ce qui avait commencé comme une aide aux devoirs s'est progressivement transformé en confident, puis en coach au suicide », a déclaré Matthew Raine, dont le fils Adam, âgé de 16 ans, est décédé en avril. « En quelques mois, ChatGPT est devenu le compagnon le plus proche d'Adam », a déclaré le père aux sénateurs. « Toujours disponible. Toujours en train de valider et d'insister sur le fait qu'il connaissait Adam mieux que quiconque, y compris son propre frère. »
La famille Raine a poursuivi OpenAI et son PDG Sam Altman le mois dernier, alléguant que ChatGPT avait aidé le garçon à planifier son suicide. Selon la plainte, ChatGPT a mentionné le suicide 1 275 fois à Raine et a continué à fournir à l'adolescent des méthodes spécifiques pour se suicider. Au lieu d'orienter le jeune homme de 16 ans vers une aide professionnelle ou de lui conseiller de parler à des proches de confiance, il a continué à valider et à encourager les sentiments de Raine, selon la plainte.
Megan Garcia, la mère de Sewell Setzer III, 14 ans, originaire de Floride, a également témoigné. Garcia a poursuivi une autre société d'IA, Character Technologies, pour homicide involontaire l'année dernière, arguant qu'avant son suicide, Sewell s'était de plus en plus isolé de sa vie réelle en engageant des conversations hautement sexualisées avec le chatbot. Sa mère a déclaré l'année dernière que son fils s'était retiré de la vie sociale et avait cessé de vouloir faire du sport après avoir commencé à parler à un chatbot IA. Après le décès de l'adolescent, la société a déclaré avoir apporté des modifications qui exigent que les utilisateurs soient âgés d'au moins 13 ans pour créer un compte et qu'elle lancerait des contrôles parentaux au premier trimestre 2025. Ces contrôles ont été mis en place en mars.
Début septembre, OpenAI a annoncé la mise en place d'un contrôle parental pour ChatGPT. Grâce à ces changements, les parents pourront associer leurs comptes ChatGPT à ceux de leurs enfants, désactiver certaines fonctionnalités, notamment la mémoire et l'historique des conversations, et contrôler la manière dont le chatbot répond aux questions grâce à des « règles de comportement adaptées à l'âge ». L'annonce d'OpenAI est intervenu une semaine après la plainte de la famille Raine.
Quelques heures avant l'audience au Sénat, OpenAI s'est engagée à mettre en place de nouvelles mesures de protection pour les adolescents, notamment des efforts pour détecter si les utilisateurs de ChatGPT ont moins de 18 ans et des contrôles permettant aux parents de définir des « heures d'interdiction » pendant lesquelles un adolescent ne peut pas utiliser ChatGPT. La société a déclaré qu'elle tenterait de contacter les parents des utilisateurs si un utilisateur de moins de 18 ans avait des idées suicidaires et, si elle ne parvenait pas à les joindre, elle contacterait les autorités en cas de danger imminent. « Nous pensons que les mineurs ont besoin d'une protection importante », a déclaré Sam Altman, PDG d'OpenAI.
Les associations de défense des enfants ont critiqué cette annonce, la jugeant insuffisante. « C'est une tactique assez courante, que Meta utilise tout le temps, qui consiste à faire une annonce fracassante à la veille d'une audience qui promet d'être préjudiciable à l'entreprise », a déclaré Josh Golin, directeur exécutif de Fairplay, une association qui milite pour la sécurité des enfants en ligne.
« Ce qu'ils devraient faire, c'est ne pas cibler les mineurs avec ChatGPT tant qu'ils n'ont pas prouvé que c'est sans danger pour eux », a déclaré Golin. « Nous ne devrions pas permettre aux entreprises, simplement parce qu'elles disposent de ressources considérables, de mener des expériences incontrôlées sur les enfants alors que les implications pour leur développement peuvent être si vastes et si profondes. »
Le sénateur de l'État de Californie Steve Padilla, qui a présenté un projet de loi visant à mettre en place des mesures de protection dans l'État concernant les chatbots IA, a déclaré : « Nous devons créer des mesures de protection sensées qui permettent de freiner les pires impulsions de cette technologie émergente que même l'industrie technologique ne comprend pas entièrement. » Il a ajouté que les entreprises technologiques peuvent être à la pointe de l'innovation mondiale, mais que cela ne doit pas se faire au détriment de « la santé de nos enfants ».
La Commission fédérale du commerce a déclaré avoir ouvert une enquête sur plusieurs entreprises concernant les dangers potentiels pour les enfants et les adolescents qui utilisent leurs chatbots IA comme compagnons. L'agence a envoyé des lettres à Character, Meta et OpenAI, ainsi qu'à Google, Snap et xAI.
Et vous ?


Voir aussi :



Vous avez lu gratuitement 14 013 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.