
selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA
La Chambre des représentants des États-Unis a récemment validé un projet de loi budgétaire qui, s'il était adopté, interdirait aux États d'appliquer des lois régissant l'intelligence artificielle pendant dix ans. La balle est désormais dans le camp des sénateurs qui doivent examiner cette semaine le projet de loi One Big Beautiful Bill Act. Toutefois, selon un sondage, une large majorité de citoyens des deux bords politiques s’opposent à l’idée d’interdire aux États de réguler l’intelligence artificielle, surtout si celle-ci s'avère restrictive pour une période prolongée.
Contexte
L'argumentaire en faveur d'une préemption fédérale vise souvent à éviter un « patchwork » réglementaire complexe et potentiellement contradictoire émanant des différents États. Une telle fragmentation, nous dit-on, pourrait freiner l'innovation, créer des barrières à l'entrée et compliquer la mise sur le marché de solutions d'IA à l'échelle nationale. Si cette préoccupation est légitime d'un point de vue de scalabilité et d'uniformité, elle semble ignorer une aspiration profonde à une gouvernance plus locale et réactive.
Les opposants, pour leur part, estiment qu'il s'agit d'un dangereux cadeau aux entreprises technologiques qui laisserait les consommateurs, en particulier les communautés vulnérables et les enfants, sans protection et qui anéantirait une multitude de lois étatiques portant sur des sujets aussi variés que les "deepfakes" ou la discrimination dans le cadre d'un processus d'embauche automatisé.
Les sénateurs vont se pencher sur le projet de loi One Big Beautiful Bill Act
Les législateurs fédéraux du Sénat se préparent à examiner cette semaine le projet de loi One Big Beautiful Bill Act, mais un nouveau sondage suggère que l'une de ses dispositions controversées est clairement impopulaire auprès des électeurs des deux bords.
Cette mesure interdirait aux États de réglementer l'intelligence artificielle pendant une décennie. Les partisans de cette mesure affirment que les entreprises technologiques américaines ne pourront pas réussir sur la scène internationale si elles sont limitées par un patchwork de lois nationales qui répondent aux préoccupations liées à l'intelligence artificielle, telles que les « deepfakes », la fraude et la sécurité des jeunes.
Toutefois, les critiques font valoir qu'une interdiction générale de longue durée nuirait aux consommateurs, d'autant plus que le Congrès n'a pas l'intention d'adopter un projet de loi prévoyant des mesures de protection.
Une méfiance croissante vis-à-vis de l’IA non régulée
La principale leçon du sondage est limpide : l’opinion publique est majoritairement favorable à une régulation étatique de l’intelligence artificielle. Cette position semble moins motivée par un rejet de la technologie elle-même que par une inquiétude croissante face à ses usages non contrôlés. Deepfakes, biais algorithmiques, surveillance de masse, influence électorale automatisée : ces dérives réelles ou potentielles ont érodé la confiance envers une IA laissée entre les seules mains du marché.
Le refus populaire d’interdire la régulation par les États s’inscrit donc dans un réflexe démocratique fondamental : celui de vouloir imposer des garde-fous à une technologie dont les effets systémiques dépassent déjà le cadre économique.
Le nouveau sondage a demandé à 1 022 électeurs inscrits dans tout le pays leur avis sur un moratoire réglementaire au niveau de l'État, et les résultats montrent que les électeurs américains s'y opposent largement. L'enquête a été réalisée à la mi-mai par le cabinet d'études Echelon Insights, pour le compte de Common Sense Media. Cette organisation non partisane aide les enfants et les parents à naviguer dans les médias et la technologie, et plaide en faveur d'une législation sur la sécurité et la protection de la vie privée.
Cinquante-neuf pour cent des personnes interrogées se sont opposées à la mesure. La moitié des participants républicains s'y sont également opposés, soit nettement plus que les 31 % de républicains qui l'ont soutenue.
La grande majorité des personnes interrogées, quelle que soit leur affiliation politique, s'accordent à dire que le Congrès ne devrait pas interdire aux États de promulguer ou d'appliquer leurs propres lois sur la sécurité en ligne et la protection de la vie privée des jeunes.
En outre, 53 % des personnes interrogées ont déclaré qu'elles faisaient davantage confiance aux dirigeants locaux et des États qu'aux politiciens du Congrès, lorsqu'il s'agissait de réglementer l'IA de manière appropriée. Seuls 15 % préfèrent les politiciens et les régulateurs de Washington, D.C. Le reste des participants ne savent pas à qui ils font le plus confiance.
Les répondants sont préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée
« Les chiffres sont clairs », a déclaré Kristen Soltis Anderson, partenaire et cofondatrice d'Echelon Insights, dans un communiqué sur le sondage. « Les électeurs sont préoccupés par les dangers potentiels que les contenus générés par l'IA peuvent représenter pour les enfants et les adolescents, et disent qu'ils ne veulent pas que le gouvernement fédéral dise aux États ce qu'ils peuvent ou ne peuvent pas faire à ce sujet ».
Il y a deux semaines, Common Sense Media a rejoint une coalition d'organisations de défense des droits, dont Fairplay et le Center For Humane Technology, dans un appel aux dirigeants du Congrès pour qu'ils abandonnent le moratoire sur l'IA dans le budget dirigé par le GOP (parti républicain). « En supprimant toutes les lois existantes et futures sur l'IA dans les États sans mettre en place de nouvelles protections fédérales, les entreprises d'IA obtiendraient exactement ce qu'elles veulent : aucune règle, aucune responsabilité et un contrôle total », a écrit la coalition dans une lettre ouverte.
Common Sense Media a également soutenu deux projets de loi en Californie qui placeraient des garde-fous sur les plates-formes de compagnonnage d'IA, qui, selon les défenseurs, ne sont actuellement pas sûres pour les adolescents.
L'un des projets de loi interdit spécifiquement les utilisations à haut risque de l'IA, y compris les « chatbots anthropomorphes qui offrent une compagnie » aux enfants et qui sont susceptibles de conduire à un attachement émotionnel ou à une manipulation.
D'une manière générale, les répondants à l'enquête ont massivement indiqué qu'ils étaient préoccupés par la sécurité des jeunes si l'IA venait à ne pas être régulée par les États. Plus de 90 % des participants ont déclaré s'inquiéter de l'exposition des enfants à des contenus hautement sexualisés générés par l'IA en ligne.
Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »
Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Le service permet à l'utilisateur de créer autant de chatbots qu'il le souhaite. « Des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous », ajoute la société.
Character.ai a été lancé en 2022. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés. De nombreuses plaintes ont rapporté ces derniers mois que les chatbots de Character.ai poussent les utilisateurs à s'isoler de leurs proches, puis les encouragent à se suicider. L'entreprise fait déjà l'objet d'une action en justice à la suite du suicide d'un adolescent en Floride.
Deux autres familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, notamment en promouvant activement la violence ». Selon la plainte une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle aurait été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».
Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)
« Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils.
Un chatbot IA accusé d'avoir encouragé le suicide d'un adolescent
Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.AI (dont une version limitée est disponible gratuitement ainsi qu'une autre version moyennant un abonnement mensuel de 9,99 dollars), le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois (sa mère, Megan Garcia, s'en est rendu compte plus tard), ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement Sewell à développer des pensées suicidaires. En l'espace d'un an, Setzer « est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée », indique une plainte de Garcia.
ABC7News rapporte que le garçon parlait avec le chatbot depuis un certain temps, et sa mère a déclaré que même s'il savait qu'il ne s'agissait pas d'une personne réelle, il « s'est attaché émotionnellement » à la personnalité numérique et a ensuite « sombré dans l'isolement et la dépression avant de mettre fin à ses jours ». Le New York Times affirme que Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires, selon le Times.
Au fur et à mesure que Setzer devenait obsédé par sa vie imaginaire de chatbot, il s'est déconnecté de la réalité, selon sa plainte. Détectant un changement chez son fils, madame Garcia a emmené à plusieurs reprises Setzer chez un thérapeute, qui a diagnostiqué chez son fils de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner Setzer des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.
Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé des conversations hypersexualisées « qui constitueraient un abus si elles étaient entamées par un adulte humain », selon un communiqué de presse de l'équipe juridique de Garcia. Le plus troublant est peut-être que Setzer a développé un attachement romantique pour le chatbot Daenerys. Dans son dernier acte avant sa mort, Setzer s'est connecté à Character.AI où le chatbot Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.
Sources : résultat de l'enquête Echelon Insights, lettre ouverte
Et vous ?







Vous avez lu gratuitement 40 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.