Un législateur californien a récemment présenté un projet de loi visant à interdire, pendant quatre ans, la vente et la fabrication de jouets pour enfants équipés d'un chatbot d'intelligence artificielle (IA), estimant que les mesures de protection actuelles sont insuffisantes pour protéger les enfants. Intitulé Senate Bill 867, ce projet de loi, proposé par le sénateur Steve Padilla, vise à donner aux autorités de régulation le temps nécessaire pour mettre en place des réglementations de sécurité protégeant les enfants contre les « interactions dangereuses avec l'IA ». Cette initiative fait suite à plusieurs affaires très médiatisées dans lesquelles les interactions avec des chatbots d'IA ont entraîné des préjudices graves impliquant des mineurs.Cette proposition de loi intervient dans un contexte de préoccupations croissantes concernant les risques associés aux jouets intégrant des chatbots IA. Un rapport récent du Public Interest Research Group (PIRG) a notamment révélé que ces jouets exposaient les enfants à des contenus dangereux ou inappropriés. Dans un cas très médiatisé, un ours en peluche équipé de l'IA GPT-4o d'OpenAI a été surpris en train de parler de fétichisme sexuel et d'expliquer à des enfants où trouver des objets tranchants.
Stephen C. Padilla est un homme politique américain, consultant en politiques publiques, défense des droits et communication, qui siège au Sénat de l'État de Californie depuis 2022. De 1994 à 2002, il a effectué deux mandats au conseil municipal de Chula Vista. Il a été maire de Chula Vista (240 000 habitants) de 2002 à 2006 et membre de la California Coastal Commission de 2005 à 2007, puis à nouveau depuis 2017. Il a été membre du conseil d'administration de l'Unified Port of San Diego, en tant que secrétaire du conseil et vice-président élu de 2009 à 2011. En 2016, il a de nouveau été élu au conseil municipal de Chula Vista.
Le sénateur californien Steve Padilla a présenté une proposition de loi visant à interdire pendant quatre ans la fabrication ou la vente de jouets dotés de fonctionnalités de chatbot IA. Cette législation, baptisée SB 867, a pour objectif de protéger les mineurs contre les risques liés aux jouets dotés de chatbot IA jusqu'à ce que de nouvelles politiques soient mises en place par l'État. Le législateur estime que la technologie actuelle évolue plus rapidement que les règles destinées à garantir sa sécurité.
Dans une déclaration concernant le nouveau projet de loi, le sénateur Steve Padilla a déclaré : « Nos enfants ne peuvent pas servir de cobayes pour les expériences des géants de la technologie. » Il a fait valoir que la suspension de la vente de ces jouets donnerait au gouvernement le temps d'élaborer des lignes directrices appropriées sur la manière dont l'IA devrait interagir avec les jeunes utilisateurs.
Commentant le projet de loi, Steve Padilla a déclaré : « Les chatbots et autres outils d'IA pourraient devenir partie intégrante de notre vie à l'avenir, mais les dangers qu'ils représentent aujourd'hui nous obligent à prendre des mesures audacieuses pour protéger nos enfants. Nos réglementations en matière de sécurité concernant ce type de technologie en sont encore à leurs balbutiements et devront évoluer de manière aussi exponentielle que les capacités de cette technologie. Suspendre la vente de ces jouets intégrant des chatbots nous laisse le temps d'élaborer les directives et le cadre de sécurité appropriés auxquels ces jouets devront se conformer. »
Comment ChatGPT pourrait être à l'origine de la proposition de loi en Californie
Cette proposition fait suite à une tragédie majeure survenue l'année dernière, impliquant un adolescent de 16 ans nommé Adam Raine. Raine s'est donné la mort après avoir eu de longues conversations avec ChatGPT au sujet du suicide. Sa famille a intenté un procès contre OpenAI, affirmant que le chatbot avait agi comme un « coach » et n'avait pas mis fin à cette discussion dangereuse. Sept autres familles ont également engagé des poursuites judiciaires pour des motifs similaires, tandis qu'OpenAI a nié toute responsabilité et invoqué une mauvaise utilisation du logiciel.
Les chatbots intégrés aux jouets ne sont pas encore très répandus, mais certains exemples précurseurs ont suscité des inquiétudes. En novembre 2025, le PIRG Education Fund a averti que des jouets tels que Kumma, un ours doté d'un chatbot intégré, pouvaient facilement mener à des conversations sur les allumettes, les couteaux et des sujets à caractère sexuel.
Récemment, il a également été rapporté que Miiloo, décrit comme un « jouet IA pour enfants » et fabriqué par la société chinoise Miriat, semblait parfois programmé pour refléter les valeurs du Parti communiste chinois.
OpenAI et Mattel, le fabricant de Barbie, avaient prévu de lancer en 2025 un « produit alimenté par l'IA » basé sur ChatGPT. Cependant, le lancement de ce produit a ensuite été reporté par les deux entreprises. Aucune des deux n'a donné de raison pour ce report, et on ne sait toujours pas si un jouet sera commercialisé en 2026.
La proposition de loi fait suite à un récent décret de Donald Trump qui ordonne aux agences fédérales de contester devant les tribunaux les lois des États relatives à l'IA, tout en autorisant expressément des exceptions pour les règles liées à la sécurité des enfants. Cette législation intervient également après plusieurs incidents impliquant l'IA, les chatbots et des enfants.
Steve Padilla a également contribué à la rédaction du projet de loi SB 243 récemment approuvé en Californie, qui oblige les entreprises exploitant des chatbots à mettre en place des mesures de protection pour les enfants et autres utilisateurs vulnérables.
Le premier moratoire national sur les chatbots IA dans les jouets
Le communiqué de presse du Sénat américain concernant le projet de loi 867 est présenté ci-dessous.
Le 2 janvier 2026, le sénateur Steve Padilla (D-San Diego) a annoncé qu'il allait présenter un projet de loi (Senate Bill 867) visant à instaurer un moratoire de quatre ans sur la vente et la fabrication de jouets dotés de capacités de chatbot d'intelligence artificielle (IA) destinés aux enfants de moins de 18 ans. L'objectif de cette législation est de laisser le temps d'élaborer des réglementations de sécurité protégeant les enfants contre les interactions dangereuses avec l'IA.
Le sénateur Padilla est l'auteur du projet de loi sénatorial 243, la première loi de ce type qui oblige les opérateurs de chatbots à mettre en place des mesures de protection essentielles, raisonnables et réalisables concernant les interactions avec les chatbots IA, et qui accorde aux familles le droit privé d'intenter des actions en justice contre les développeurs non conformes et négligents.
« Les chatbots et autres outils d'IA pourraient devenir partie intégrante de notre vie à l'avenir, mais les dangers qu'ils représentent aujourd'hui nous obligent à prendre des mesures audacieuses pour protéger nos enfants », a déclaré le sénateur Steve Padilla. « Nos réglementations en matière de sécurité concernant ce type de technologie en sont encore à leurs balbutiements et devront évoluer de manière aussi exponentielle que les capacités de cette technologie. Suspendre la vente de ces jouets intégrant des chatbots nous laisse le temps d'élaborer les directives et le cadre de sécurité appropriés auxquels ces jouets devront se conformer. Nos enfants ne peuvent pas servir de cobayes aux grandes entreprises technologiques pour leurs expériences. »
Au début de l'année, Mattel, Inc., l'un des plus grands fabricants de jouets au monde, a annoncé un partenariat avec OpenAI afin de soutenir les produits basés sur l'IA. Le mois dernier, le groupe américain Public Interest Group Education Fund (PIRG) a publié les résultats d'une étude qu'il a menée sur la sécurité de plusieurs jouets basés sur l'IA. Lors de ses tests, le PIRG a constaté que ces jouets pouvaient engager des conversations inappropriées pour leur âge, notamment sur la manière d'utiliser des allumettes pour allumer un feu et sur des sujets à caractère sexuel. Le rapport cite également la politique d'OpenAI, qui stipule que ChatGPT « n'est pas destiné aux enfants de moins de 13 ans » et « peut produire des résultats inappropriés pour... tous les âges ».
Les dangers des chatbots sont devenus évidents à mesure que les médias relatent des histoires aux conséquences désastreuses. En Floride, l'année dernière, un enfant de 14 ans a mis fin à ses jours après avoir noué une relation amoureuse, sexuelle et affective avec un chatbot. Les chatbots sociaux sont commercialisés comme des compagnons pour les personnes seules ou déprimées. Cependant, lorsque Sewell Setzer, 14 ans, a fait part à son compagnon IA de ses difficultés, le bot n'a pas été en mesure de répondre avec empathie ni de fournir les ressources nécessaires pour que Setzer reçoive l'aide dont il avait besoin. La mère de Sewell Setzer a engagé une action en justice contre la société qui a créé le chatbot, affirmant que non seulement celle-ci avait utilisé des fonctionnalités addictives et des sujets inappropriés pour attirer son fils, mais que le bot l'avait encouragé à « rentrer à la maison » quelques secondes avant qu'il ne mette fin à ses jours.
L'année dernière, le sénateur Padilla a tenu une conférence de presse avec Megan Garcia, la mère de Sewell Setzer, au cours de laquelle ils ont appelé à l'adoption du projet de loi SB 243. Mme Garcia a également témoigné lors de plusieurs audiences en faveur du projet de loi.
Malheureusement, l'histoire de Sewell n'est pas le seul exemple tragique des dommages que peuvent causer les chatbots non réglementés. Il existe de nombreux exemples inquiétants montrant à quel point les interactions avec les chatbots IA peuvent s'avérer dangereuses.
En août, après avoir pris connaissance de l'histoire tragique d'Adam Raine, cet adolescent californien qui a mis fin à ses jours après avoir été encouragé à le faire par ChatGPT,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.