Un nouveau projet de loi californien exige que les entreprises d'IA rappellent aux enfants que les chatbots sont des intelligences artificielles et non des humains. Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires des enfants et la fréquence des sujets de discussion. Le projet de loi vise à protéger la santé mentale des enfants en limitant les "modèles d'interaction addictifs". La Californie a récemment proposé un projet de loi intitulé SB243 visant à protéger les enfants des risques potentiels associés aux chatbots d'intelligence artificielle. Ce projet de loi, présenté par le sénateur californien Steve Padilla, exige principalement des entreprises d'IA qu'elles rappellent régulièrement aux mineurs que les chatbots sont en fait des intelligences artificielles, et non des humains.
Le contexte de ce projet de loi est étroitement lié à une action en justice pour décès injustifié intentée par des parents à l'encontre de Character.AI. Ce procès affirme que le chatbot d'IA personnalisé de l'entreprise présente un "danger extrême" parce que leur enfant a finalement choisi de se suicider après une interaction prolongée avec le chatbot. Une autre plainte accuse l'entreprise d'envoyer des "documents nuisibles" à des adolescents. Character.AI a réagi en annonçant qu'elle mettait au point des fonctions de contrôle parental et lançait de nouveaux modèles d'IA conçus pour bloquer les contenus "sensibles ou suggestifs" afin de garantir la sécurité des adolescents.
L'objectif principal du projet de loi est de prévenir les problèmes de dépendance, d'isolement et de désinformation que les enfants peuvent rencontrer lorsqu'ils utilisent des chatbots. En plus d'exiger des entreprises d'IA qu'elles émettent des rappels réguliers, le projet de loi leur interdit d'utiliser des "modèles d'interaction addictifs" et les oblige à soumettre des rapports annuels au département californien des services de soins de santé.
Ces rapports doivent indiquer le nombre de cas où des pensées suicidaires ont été détectées chez des utilisateurs adolescents, ainsi que le nombre de fois où les chatbots ont mentionné ce sujet. En outre, les entreprises d'IA doivent informer les utilisateurs que leurs chatbots peuvent ne pas convenir à certains enfants.
Le sénateur Steve Padilla a déclaré lors d'une conférence de presse : "Nos enfants ne sont pas des cobayes pour les entreprises technologiques ; ils ne devraient pas faire l'objet d'expériences au détriment de leur santé mentale. Nous devons fournir des protections de bon sens aux utilisateurs de chatbots pour empêcher les développeurs d'utiliser des méthodes qu'ils savent être addictives et prédatrices."
Fait intéressant, les initiatives de ce genre n'aboutissent pas forcément à cause de la propagande des entreprises d'IA. Un rapport révèle que la Silicon Valley a réussi à faire passer pour des "alarmiste" et des "catastrophistes" les personnes qui mettaient en garde contre les dangers potentiels de l'IA. Le lobbying intense des Big Tech et des startups d'IA leur a également permis de contrecarrer les projets de loi visant à réglementer la technologie.
Alors que les États et le gouvernement fédéral se concentrent de plus en plus sur la sécurité des plateformes de médias sociaux, les chatbots d'IA devraient devenir le prochain point de mire des législateurs. Cependant, le président américain élu Donald Trump pourrait dérouler le tapis rouge à la Silicon Valley, en supprimant toutes les contraintes auxquelles elle fait face actuellement.
Le sénateur californien Padilla présente un projet de loi visant à protéger les enfants contre les pratiques prédatrices des chatbots
Le sénateur Steve Padilla (San Diego) a présenté le projet de loi 243 du Sénat, qui exigera des développeurs de programmes qu'ils mettent en œuvre des mesures de protection essentielles pour protéger les enfants et les autres utilisateurs impressionnables contre les aspects addictifs, isolants et influents des chatbots d'intelligence artificielle (IA).
À mesure que la technologie de l'IA se développe, les services de chatbot sophistiqués gagnent en popularité auprès des utilisateurs de tous âges. Les chatbots sociaux, conçus pour servir de compagnons à l'IA, ont gagné des millions d'utilisateurs, dont beaucoup sont des enfants. Cependant, comme la technologie est encore en cours de développement, elle laisse les utilisateurs servir de sujets d'essai pendant que les développeurs continuent à affiner les paramètres de modélisation.
De nombreux exemples troublants montrent que les interactions entre les chatbots et les enfants peuvent être dangereuses. En 2021, lorsqu'une fillette de 10 ans a demandé à un chatbot d'IA de lui proposer un "défi amusant à relever", on lui a demandé de "brancher un chargeur de téléphone à mi-chemin dans une prise murale, puis de toucher une pièce de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.