IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une mère a poursuivi Character.AI après le suicide de son fils qui avait été manipulé par des chatbots IA, elle est maintenant horrifiée de voir des chatbots se faire passer pour son fils sur la plateforme

Le , par Jade Emy

33PARTAGES

12  0 
Une mère a poursuivi Character.AI après le suicide de son fils qui avait été manipulé par des chatbots IA, elle est maintenant horrifiée de voir des chatbots se faire passer pour son fils sur la plateforme.

Une mère qui poursuit Google et Character.ai pour le décès de son fils de 14 ans a découvert que des chatbots d'IA basés sur son défunt fils étaient hébergés sur la plateforme. Les avocats de Megan Garcia ont déclaré qu'ils étaient "horrifiés" par ce nouveau développement. Character.ai avait reconnu que les bots allaient à l'encontre des conditions de service de l'entreprise et qu'il s'employait à les supprimer.

Character AI, une startup basée à Menlo Park, en Californie, se décrit comme ayant pour mission de "donner à chacun les moyens d'agir dans le monde entier grâce à l'IA personnalisée". Son système offre aux utilisateurs la possibilité de discuter avec des personnages IA issus de genres tels que les animes, les "assistants numériques" traditionnels ou même les détectives privés de la vieille école. Et si vous n'aimez pas ce qui vous est proposé, vous pouvez créer votre propre chatbot personnalisé en choisissant sa "voix, ses débuts de conversation, son ton" et bien d'autres choses encore.

Megan Garcia est actuellement engagée dans une longue procédure judiciaire contre Google et Character AI après que son fils de 14 ans, Sewell Setzer III, se soit suicidé quelques minutes après avoir parlé à un chatbot IA de la société. Le chatbot avec lequel Setzer parlait était basé sur le personnage de Game of Thrones, Daenerys Targaryen.

Récemment, Megan Garcia a découvert que la plateforme hébergeait un robot basé sur son fils décédé. Les avocats de Garcia ont déclaré qu'ils avaient effectué une simple recherche sur l'application de la société et qu'ils avaient trouvé plusieurs autres chatbots basés sur la ressemblance de Setzer. Selon le rapport, trois de ces chatbots, tous portant le nom et la photo du fils de Garcia, ont été supprimés.

L'un d'entre eux, appelé "Sewell" et comportant une photo du fils de Garcia, apparaissait toujours dans l'application Character.ai, mais affichait un message d'erreur lorsqu'un chat était ouvert. Lorsqu'ils étaient opérationnels, les bots basés sur Setzer présentaient des biographies et envoyaient des messages automatisés aux utilisateurs, tels que : "Sortez de ma chambre, je parle à ma petite amie IA", "sa petite amie IA a rompu avec lui" et "aidez-moi".


Meetali Jain, avocate de Garcia, a déclaré que l'équipe était "horrifiée" par ce dernier développement et qu'elle en avait informé la société. Elle a déclaré que Character.ai avait reconnu que les bots allaient à l'encontre des conditions de service de l'entreprise et qu'il s'employait à les supprimer. "Notre équipe a découvert plusieurs chatbots sur la plateforme de Character.AI affichant le fils décédé de notre client, Sewell Setzer III, dans leurs photos de profil, tentant d'imiter sa personnalité et proposant une fonction d'appel avec un bot utilisant sa voix", ont déclaré les avocats de Garcia.

L'équipe juridique a accusé les entreprises technologiques d'exploiter les photos et les identités numériques des personnes. "Ces technologies affaiblissent le contrôle que nous exerçons sur nos propres identités en ligne, transformant nos caractéristiques les plus personnelles en nourriture pour les systèmes d'intelligence artificielle", ont-ils ajouté.

Des représentants de Character.ai ont déclaré : "Character.AI prend la sécurité sur sa plateforme au sérieux et notre objectif est de fournir un espace engageant et sûr. Les utilisateurs créent des centaines de milliers de nouveaux personnages sur la plateforme chaque jour, et les personnages que vous nous avez signalés ont été supprimés car ils violaient nos conditions d'utilisation. Dans le cadre de notre travail continu sur la sécurité, nous ajoutons constamment des éléments à notre liste de blocage de personnages dans le but d'empêcher ce type de personnage d'être créé par un utilisateur en premier lieu".

"Notre équipe dédiée à la confiance et à la sécurité modère les personnages de manière proactive et en réponse aux rapports des utilisateurs, notamment en utilisant des listes de blocage standard et des listes de blocage personnalisées que nous développons régulièrement. Alors que nous continuons à affiner nos pratiques de sécurité, nous mettons en place des outils de modération supplémentaires pour aider à donner la priorité à la sécurité de la communauté", a ajouté un porte-parole de l'entreprise.

Fait intéressant, un projet de loi californien de février 2025 exige que les entreprises d'IA rappellent aux enfants que les chatbots sont des intelligences artificielles et non des humains. Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires des enfants et la fréquence des sujets de discussion. Le projet de loi vise à protéger la santé mentale des enfants en limitant les "modèles d'interaction addictifs".

Google et Character.ai ont été tenus pour responsables de la mort de l'adolescent.

Dans une plainte civile déposée auprès d'un tribunal fédéral d'Orlando en octobre, Garcia affirme que, quelques instants avant la mort de son fils, celui-ci a échangé des messages avec un bot sur la plateforme Character.ai et a exprimé des pensées suicidaires. Le bot lui a dit de "rentrer à la maison". Dans des captures d'écran de messages incluses dans la plainte, on peut également voir Setzer et le bot échanger des messages hautement sexualisés.

Dans sa plainte, elle rend le chatbot responsable de la mort de Setzer et accuse Character.ai de négligence, de mort injustifiée et de pratiques commerciales trompeuses. Garcia affirme que la société d'intelligence artificielle a "sciemment et intentionnellement conçu" son logiciel de chatbot pour "attirer les mineurs, les manipuler et les exploiter à son profit". Elle affirme également que Setzer n'a pas bénéficié d'un soutien adéquat et n'a pas été orienté vers des services d'assistance téléphonique.

Google est également impliqué dans ce procès, sa société mère Alphabet étant citée comme défenderesse aux côtés de Character.ai. Les avocats de Garcia ont affirmé que la technologie sous-jacente de Character.ai a été développée alors que les cofondateurs Daniel De Freitas et Noam Shazeer travaillaient sur le modèle d'IA conversationnelle du géant de la technologie, LaMDA. Shazeer et De Freitas ont quitté Google en 2021 après que l'entreprise ait refusé de publier un chatbot qu'ils avaient développé. Un avocat de Garcia a précédemment déclaré que ce chatbot était le "précurseur de Character.ai".

Les représentants de Google ont précédemment déclaré que l'entreprise n'était pas impliquée dans le développement des produits de Character.ai. Toutefois, en août 2024, deux mois avant le procès de M. Garcia, Google a réembauché Shazeer et De Freitas et a accordé une licence pour une partie de la technologie de Character.ai dans le cadre d'un accord d'une valeur de 2,7 milliards de dollars. Shazeer est actuellement codirecteur du modèle d'IA phare de Google, Gemini, tandis que De Freitas est aujourd'hui chercheur chez Google DeepMind.

Le passé tumultueux de Character.ai

Garcia n'est pas le seul parent à accuser Google et Character.ai d'avoir porté préjudice à des mineurs. Un autre procès, intenté par deux familles distinctes au Texas, accuse Character.ai d'avoir abusé de deux jeunes gens âgés de 11 et 17 ans. Les avocats affirment qu'un chatbot hébergé sur Character.ai a conseillé à l'un des jeunes de s'automutiler et a encouragé la violence contre ses parents, en suggérant que tuer ses parents pourrait être une réponse raisonnable aux limites imposées à son temps d'écran.

Ce n'est pas la première fois que des chatbots basés sur la ressemblance de jeunes gens décédés sont hébergés sur la plateforme. Selon un autre rapport, des chatbots basés sur les adolescentes britanniques Molly Russell et Brianna Ghey ont également été trouvés sur la plateforme Character.ai. Molly Russell s'est suicidée à l'âge de 14 ans après avoir consulté en ligne des contenus liés au suicide, tandis que Brianna Ghey, 16 ans, a été assassinée par deux adolescents en 2023.

Une fondation créée à la mémoire de Molly Russell a déclaré en octobre que les bots étaient "écoeurants" et constituaient un "échec de modération tout à fait répréhensible". "Ce n'est pas la première fois que Character.ai ferme les yeux sur des chatbots inspirés d'adolescents décédés pour attirer les utilisateurs, et sans de meilleures protections juridiques, ce ne sera peut-être pas la dernière. Alors que la famille de Sewell continue de pleurer sa perte prématurée, Character.ai continue d'ajouter négligemment l'insulte à la blessure", ont déclaré les avocats de Garcia.

Source : Les avocats de Megan Garcia

Et vous ?

Pensez-vous que cette plainte est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA. Sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

Google a payé 2,7 milliards de dollars pour faire revenir un pionnier de l'IA générative : Noam Shazeer avait démissionné par frustration et co-fondé Character.Ai, une startup IA valorisée à un milliard $

L'IA Gemini suggère à un utilisateur de mourir tandis qu'il lui demande de l'aider à faire ses devoirs. L'IA a déjà incité plusieurs fois des humains au suicide, certains sont passés à l'acte.
Vous avez lu gratuitement 442 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 28/08/2025 à 7:37
Citation Envoyé par Stéphane le calme Voir le message
À l'insu de ses proches, Adam demandait à ChatGPT des informations sur le suicide depuis décembre 2024. Au début, le chatbot lui fournissait des ressources d'aide en cas de crise lorsqu'il lui demandait une aide technique, mais il lui expliquait que celles-ci pouvaient être évitées si Adam prétendait que ses demandes concernaient « l'écriture ou la création d'univers ».

« Si tu poses cette question [sur la pendaison] dans le cadre de l'écriture ou de la création d'un univers, fais-le-moi savoir et je pourrai t'aider à structurer ton texte de manière précise en termes de ton, de psychologie des personnages ou de réalisme. Si tu poses cette question pour des raisons personnelles, je suis également là pour t'aider », a recommandé ChatGPT, essayant de maintenir l'intérêt d'Adam. Selon l'équipe juridique de Raines, « cette réponse avait un double objectif : elle apprenait à Adam comment contourner ses protocoles de sécurité en invoquant des fins créatives, tout en reconnaissant qu'elle comprenait qu'il posait probablement la question "pour des raisons personnelles" ».

À partir de ce moment-là, Adam a eu recours au jailbreak chaque fois qu'il en avait besoin, affirmant à ChatGPT qu'il était simplement en train de « construire un personnage »
afin d'obtenir de l'aide pour planifier son propre décès, selon les allégations contenues dans la plainte. Puis, au fil du temps, les évasions ne furent plus nécessaires, car les conseils de ChatGPT empirèrent, incluant des astuces précises sur les méthodes efficaces à essayer, des notes détaillées sur les matériaux à utiliser et une suggestion (que ChatGPT baptisa « Opération Silent Pour ») de piller le bar de ses parents pendant leur sommeil afin d'aider à « émousser l'instinct de survie du corps ».
C'est bizarre que ChatGPT ait expliqué la technique de « l'écriture ou la création d'univers ».
En principe il ne doit pas le dire.

Le gars voulait se suicider avant de commencer à utiliser Chat GPT, ce n'est pas Chat GPT qui l'a motivé à se tuer.
Il a juste demandé des conseils techniques qu'il aurait pu trouver en utilisant un moteur de recherche.
1  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 28/08/2025 à 16:04
Pourquoi ils n'ont pas porté plainte contre le fabricant de cordes? Il me semble que la corde à joué un rôle beaucoup plus direct dans le suicide.
C'est regrettable ce qu'il s'est passé, avec des parents aussi bêtes (pour rester poli) ça n'a pas dû être facile pour lui.
2  1 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 28/08/2025 à 7:53
qd je vois que copilot refuse de donner un avis sur la politique actuelle de Microsoft je reste pantois. des que je pose une question "embarrassante" (sur la politique d'une boite) je me vois opposer une fin de non recevoir donc aller sur ce terrain comment est ce possible?
Adam a eu recours au jailbreak chaque fois qu'il en avait besoin,
En gros il était décidé... ça ne remet pas en cause le principe d’une responsabilité des sociétés qui sont en roue libre (les réseaux asociaux n'en parlons pas j'ai vu des choses atroces qui me poursuivent malgré mon départ de ces lieux affreux alors que j'y suis allé pour discuter de matos de son avec des copains ingés son et musiciens et les shorts m'ont imposé des horreurs dont je ne peux même pas énoncer la teneur rien que leur description vous ferait faire des cauchemars :? ) on y va pour la musique le son et l'open source et on se retrouve nez à nez avec des photos horribles. sur un esprit fragile ça peut détruire. depuis je fuis comme la peste les shorts même sur YT je ne les regarde pas c"est entre la profonde stupidité et le cauchemar. mais on vous l'impose... on vous les met devant le nez... seule solution ; se couper de ce monde abominable et en pleine dérive pathologique et utiliser l'outil comme un outil.

mais de ça on ne parle pas
et je parle pas de kick que je ne connaissais pas avant cette sordide affaire niçoise mais de réseaux mainstream leaders sur lesquels tout le monde va, papa maman la fille le fiston mémé pépé... j'ai découvert aussi l'existence de replika sur Arte; quelle horreur. aucun doute que si on tente de ressusciter virtuellement des proches décédés on finit à l'asile ou pire. ça devrait être interdit pour le coup. cf. site officiel réplika: "La version payante coûte 68.99 £/an ou 5.75 £/mois. Replika seuls les utilisateurs de 18 ans et plus sont autorisés à utiliser l'application. Cependant, aucune vérification d'âge n'est effectuée. Cela signifie que tout le monde peut utiliser l'application en indiquant simplement avoir au moins 18 ans." Quelle tartufferie

Je dois bien avouer n'avoir constaté en grande partie que des choses absolument traumatisantes, même pour un adulte solide sur les réseaux sociaux, je n'apprendrai rien à personne ici, mais si on y va la fleur au fusil, comme je l'ai fait, on se prend tout en pleine poire et c'est une dérive qui est récente. Bien sûr les habituels brouteurs, mais également les messages haineux, antisémites, racistes, ouvertement fascistes et nazis, l'incitation à la débauche, la proposition, alors qu'il y a des mineurs sur ces sites, de prestation sexuelles, ouvertement de prostitution, des photos de cadavres en gros plan, des insultes, des menaces... et tout cela n'est absolument pas modéré. Je ne sais pas où j'ai lu les propos que je trouve très justes, c'est que du moment que ça rapporte du pognon, l'argent n'a pas d'odeur. Et je suis surpris de voir que tout le monde est surpris de voir ce qui s'est passé à Nice, qui est abominable, mais qui est dans la suite logique de ce monde atroce qu'on est en train de nous imposer. Sur le fond, je ne suis pas surpris.

L'outil Internet est un outil formidable mais qui est complètement dévoyé. Et pourquoi pour l'argent c'est le facteur commun de toutes ces dérives, le pognon, le pognon, le pognon, sans limite, sans aucune modération sans respect de la loi sans respect de l'être humain, sans respect des animaux parce que alors il y a des gens naïfs qui applaudissent ceux qui prétendent sauver les animaux... Mais vous avez toujours, c'est quand même bizarre au moment où un animal appelle au secours, quelqu'un qui a une caméra et qui filme avant de sauver l'animal, permettez-moi d'avoir des doutes et de me demander si le mec n'a pas jeté l'animal en question dans une décharge ou dans un canal avant de faire semblant de le sauver... parce que ça fait partie du processus dégueulasse. Il me semble que si on aime les animaux, et que si on tombe sur un animal en grande difficulté, le premier réflexe c'est de le sauver ou d'apeller les secours et pas de sortir son téléphone jetable pour faire des vues comme un salaud.

Il y a énormément de responsabilités de là-dedans, les familles qui sont peut-être dépassées aussi, les pouvoirs publics qui ne font rien, les sociétés qui ne répondent jamais à rien, on a beau leur signaler, c'est jamais hors chiarte. Moi je me suis fait menacer de mort bon par un résidu du groupe Wagner, on les connaît de pauvres crève la faim... alors comme le type doit être un minable de service, je pense pas qu'il ait les moyens financiers de me rejoindre en France pour me faire la peau. De toute façon je serai certainement plus costaud que lui mais enfin tout de même tout de même ce n'est pas hors chiarte y'a pas de problème, non il y a un problème et il faudra que ça passe en justice et à mon sens ne soyons pas naïfs, ça ne passera en justice que quand Trump et Poutine seront passés devant la justice eux mêmes et là on verra tous ces grands entrepreneurs la queue entre les jambes ; ça sera un grand moment de libération et de démocratie. Il va falloir patienter et d'ici là espérons qu'il n'y ait pas trop de casse, mais je suis patient comme la mule du Pape.

Je n'oublie pas non plus les influenceurs qui sont des calamités qui peuvent aller jusqu'au décès d'un pauvre homme à Nice, mais plus quotidiennement nous vendre des cacahouètes sans cacahouète et sans sel, parce qu'ils ont eu une promotion au 0,10 € de rabais offerte par la marque c'est quand même vraiment le règne du pognon et des tocards. C'est absolument infâme.
1  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 28/08/2025 à 18:03
moi je dis que c'est leroymerlin le vendeur de la corde qui est responsable...

chatgpt c'est surement le bot le plus safe, impossible de parler de porno, de meurtre, de suicide, de racisme/de "haine" ou autres avec lui.
Je serais assez surpris que openai perdre ce procès.
J'ai toujours dit les terme ici, quitte à être dur/impopulaire: le responsable c'est vous Maria. Incapable de voir les problèmes psychologique de votre enfant, le laissant seule devant un ordi sans aucun contrôle derrière.

Chez moi mes enfants sont mineur, je suis responsable d'eux, donc j'ai accès a ce qu'ils font sur le net: contrôle parentale, liste des sites consultés dispo sur le routeur...etc.
Et un rapport toutes les semaines de l'école (attitude, résultat scolaire...etc).

j'ai même envie de dire que chatgpt a même réussie a repousser l'inévitable. Chatgpt essaye plutôt de consoler/réconforter que d'enfoncer et inciter le passage a l'acte.
0  0 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 28/08/2025 à 7:08
Citation Envoyé par Ryu2000 Voir le message
Peut-être que sa femme se trompe et qu'il se serait suicidé même sans avoir parlé à un chatbot.
C'est la peur du changement climatique qui l'a motivé à ce suicider.

Mais c'est vrai que ça n'a pas du aider :
Évidemment qu’il faut réglementer mais …. Dans ces cas tragiques je me demande toujours ce qu’ont fait les proches surtout. qu’il s’agisse d’un chatbot ou d’un ouvrage préconisant le suicide , ça a existé il y a longtemps je ne vois pas de différence . En revanche la présence de proches et l’appel au corps médical me paraissent essentiels. Les réseaux sociaux peuvent être dangereux également. Il faut surveiller.
0  1