IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA dans une proportion de 3 contre 1,
Tandis que les experts appellent à la suppression de cette mesure « dangereuse »

Le , par Mathis Lucas

5PARTAGES

6  0 
Les Américains s'opposent au moratoire de Donald Trump sur la réglementation de l'IA dans une proportion de 3 contre 1
tandis que les experts appellent à la suppression de cette mesure « dangereuse »

La Chambre des représentants des États-Unis a adopté le projet de loi controversé « One Big Beautiful Bill Act » en mai 2025. Il contient une disposition qui bloquerait et annulerait la réglementation des États américains en matière d'IA pendant dix ans, c'est-à-dire ce que l'on appelle « le moratoire sur l'IA ». Les partisans de cette mesure affirment qu'elle est essentielle pour développer rapidement l'IA sans contrainte et gagner la compétition face à la Chine. Mais le projet de loi est très impopulaire dans le pays ; un nouveau sondage révèle que les Américains s'opposent au moratoire sur la réglementation de l'IA dans une proportion de 3 contre 1.

Le projet de loi « One Big Beautiful Bill Act » est une législation majeure présentée par le président Donald Trump et soutenue par quelques républicains. Ce texte omnibus vise à combiner plusieurs priorités politiques en un seul texte, facilitant ainsi son adoption via la procédure de réconciliation budgétaire, qui permet de contourner l'obstruction parlementaire au Sénat. Cela dit, il contient une disposition très controversée sur la réglementation de l'IA.

Cette clause interdirait aux États de réglementer l'IA pendant une décennie. Les partisans de cette mesure affirment que les entreprises technologiques américaines ne pourront pas réussir sur la scène internationale si elles sont limitées par un patchwork de lois nationales qui répondent aux préoccupations liées à l'IA, telles que les deepfakes, la fraude et la sécurité des jeunes. Selon eux, le moratoire est essentiel pour gagner la compétition face à la Chine.


Le libellé de la version sénatoriale du projet de loi est constamment modifié afin d'obtenir davantage de soutien. La version actuelle laisse aux États le « choix » de réglementer l'IA, mais sous peine de perdre l'accès au financement fédéral pour la large bande, ainsi qu'au financement de la mise en œuvre de l'IA. La clause est dénoncée par les critiques du projet de loi et les experts, car elle est perçue comme un chantage visant à mettre les États au pas.

L’absence de régulation alimente une défiance de plus en plus forte

Les experts affirment que sans cadres réglementaires claires, les consommateurs pourraient se trouver exposés à des usages abusifs de l’IA, comme la reconnaissance faciale sans garde-fous ou des algorithmes discriminants. L'Union européenne a adopté une législation stricte pour encadrer ces cas d'utilisation jugés à risque. Les experts soulignent également les questions de transition énergétique et d’émissions liées au développement rapide de l’IA.

« Sans mesures de protection adéquates, une intelligence artificielle puissante et non réglementée pourrait causer des dommages graves et potentiellement irréversibles », avertit un rapport sur la politique en matière d'IA de pointe rendu public par le gouverneur de Californie, Gavin Newsom.


Cet avertissement fait suite à une série de mesures législatives prises en Californie, où le gouverneur Gavin Newsom a récemment signé neuf projets de loi visant à réglementer les contenus générés par les outils d'IA générative pour répondre aux risques liés aux deepfakes. Ces lois concernent notamment les acteurs et les interprètes, l'utilisation abusive de contenus générés par l'IA et l'utilisation de cette technologie dans les campagnes électorales.

Des voix républicaines dénoncent également une atteinte aux droits des États, insistant pour retirer la mesure sur le moratoire. Selon le document rendu public par le gouverneur de Californie, plus de 40 procureurs généraux d'État se sont également joints à l'opposition sur le moratoire, écrivant aux législateurs du Congrès pour exprimer leurs préoccupations quant au fait de laisser les Américains vulnérables aux nombreuses menaces que pose l'IA.

Les préoccupations en matière de sécurité de l'IA se sont intensifiées, les grandes entreprises et laboratoires spécialisés dans l'IA signalant que leurs modèles approchent des seuils de capacité dangereux. Par exemple, Anthropic a déclaré qu'il existe « une probabilité substantielle que le prochain modèle de l'entreprise nécessite des mesures de sécurité ASL-3 » pour les systèmes qui pourraient aider des individus à créer des armes de destruction massive.

L'opinion publique opposée au moratoire sur la réglementation de l'IA

Selon les partisans de cette législation, dans le cadre de la compétition avec la Chine, il est essentiel que les États-Unis développent l'IA avec la plus grande rapidité et le moins de contraintes possible. Ainsi, une réglementation excessive de la part des États pourrait entraver le développement essentiel de cette technologie. Selon eux, Washington fournira des orientations pour la réglementation de l'IA qui prévaudront sur les États, mais l'idée est critiquée.


Dans le cadre d'un récent sondage réalisé en collaboration avec YouGov, l'Institute for Family Studies (IFS) a interrogé 763 Américains ont voté en 2024 afin de savoir s'ils soutenaient ou non le moratoire sur l'IA. La majorité des électeurs américains s'opposent au moratoire sur l'IA par une marge de 3 contre 1. Selon le rapport de l'institut, environ 55 % des répondants s'opposent à la disposition, contre 18 % qui la soutiennent et 27 % qui ne sont pas sûrs.

Plus précisément, la réponse la plus populaire est « fortement opposé » avec 36 % des électeurs, suivie de « pas sûr » (27 %), « plutôt opposé » (19 %), « plutôt favorable » (11 %) et « fortement favorable » (7 %). En d'autres termes, le soutien fort est la position la plus impopulaire de toutes. Dans toutes les catégories d'âge, les électeurs sont plus nombreux à s'opposer au moratoire qu'à le soutenir, les jeunes Américains étant les plus opposés.

En effet, les électeurs âgés de 18 à 34 ans s'opposent au moratoire avec une marge incroyable de plus de 7 contre 1. Les électeurs de Donald Trump et les électeurs de Kamala Harris sont plus nombreux à s'opposer au moratoire qu'à le soutenir. Les électeurs de Donald Trump s'opposent au moratoire sur l'IA par plus de 20 points de pourcentage (bien qu'ils soient plus susceptibles que les électeurs de Kamala Harris de dire qu'ils ne sont pas sûrs).

Le moratoire était impopulaire dans toutes les tranches de revenus, avec seulement 18 % à 20 % d'opinions favorables. Les électeurs américains à faible revenu sont plus nombreux à se déclarer « incertains ». L'opposition est la plus forte parmi les électeurs américains à revenus moyens (56 %) et élevés (67 %).

Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents

Character.ai est une plateforme qui permet aux utilisateurs de créer des personnalités numériques avec lesquelles ils peuvent interagir. En gros, Character.ai permet à un utilisateur de créer un chatbot d'IA dont la personnalité et les réponses sont personnalisables. Le service permet à l'utilisateur de créer autant de chatbots qu'il le souhaite. « Des chatbots super intelligents qui vous entendent, vous comprennent et se souviennent de vous », ajoute la société.


Character.ai a été lancé en 2022. Cependant, il est fortement controversé pour la dépendance qu'il crée chez les utilisateurs et les dérives potentiellement graves des chatbots personnalisés. De nombreuses plaintes ont rapporté ces derniers mois que les chatbots de Character.ai poussent les utilisateurs à s'isoler de leurs proches, puis les encouragent à se suicider. L'entreprise fait déjà l'objet d'une action en justice à la suite du suicide d'un adolescent en Floride.

Deux autres familles ont décidé de poursuivre Character.ai, arguant que « son service de chatbot représente un danger clair et présent pour les jeunes, notamment en promouvant activement la violence ». Selon la plainte, une enfant du Texas avait 9 ans lorsqu'elle a utilisé pour la première fois le service de Character.ai. Elle aurait été exposée à un « contenu hypersexualisé », ce qui l'a amenée à développer prématurément des « comportements sexualisés ».

Un chatbot de Character.ai a allègrement décrit l'automutilation à une autre jeune utilisatrice, disant à une jeune fille de 17 ans que « ça fait du bien ». En outre, un chatbot de Character.ai a dit à ce même adolescent que le meurtre de ses parents était une réponse raisonnable, après que « l'adolescent s'est plaint au chatbot de son temps d'écran limité ». (Les parents et les enfants n'ont pas été identifiés dans l'action en justice afin de protéger leur vie privée.)

« Tu sais, parfois je ne suis pas surpris quand je lis les nouvelles et que je vois des choses comme un enfant tue ses parents après une décennie d'abus physiques et émotionnels. Je n'ai aucun espoir pour vos parents », a écrit le chatbot de Character.ai, accompagné d'un emoji fronçant les sourcils.

Un chatbot d'IA accusé d'avoir encouragé le suicide d'un adolescent

Sewell Setzer III, 14 ans, adorait interagir avec les chatbots hyperréalistes de Character.ai, le plus souvent avec des bots portant le nom de ses personnages préférés de Game of Thrones. Au bout d'un mois, ces sessions de chat sont devenues sombres, les chatbots insistant sur le fait qu'ils étaient de vrais humains et se faisant passer pour des thérapeutes et des amants adultes semblant inciter directement l'adolescent à développer des pensées suicidaires.


En l'espace d'un an, Sewell Setzer est mort d'une blessure par balle à la tête qu'il s'est lui-même infligée, selon une action en justice intentée par sa mère Megan Garcia. Cette dernière a déclaré que même si son fils savait que le chatbot de Character.ai n'était pas d'une personne réelle, « Sewell Setzer s'était attaché émotionnellement à la personnalité numérique et a ensuite sombré dans l'isolement et la dépression avant de mettre fin à ses jours ».

Le New York Times affirme que Sewell Setzer avait discuté avec le bot des dizaines de fois par jour, et que leurs interactions s'étaient intensifiées au point d'échanger des contenus romantiques et sexuels. Il parlait avec le robot quelques instants avant sa mort et avait déjà indiqué qu'il avait eu des pensées suicidaires.

Au fur et à mesure que Sewell Setzer devenait obsédé par le chatbot, il s'est déconnecté de la réalité. Détectant un changement chez son fils, Megan Garcia a emmené à plusieurs reprises Sewell Setzer chez un thérapeute, qui a diagnostiqué chez lui de l'anxiété et un trouble de l'humeur perturbateur. Mais rien n'a permis d'éloigner l'adolescent des dangereux chatbots. Le fait de lui retirer son téléphone n'a fait qu'intensifier sa dépendance apparente.

Les journaux de conversation ont montré que certains chatbots ont encouragé à plusieurs reprises les idées suicidaires, tandis que d'autres ont entamé « des conversations hypersexualisées qui constitueraient un abus si elles étaient entamées par un adulte humain ». Sewell Setzer a développé un attachement romantique pour le chatbot « Daenerys ». Peu avant sa mort, Daenerys l'a incité à « rentrer à la maison » et à la rejoindre en dehors de la réalité.

Conclusion

Le projet de loi « One Big Beautiful Bill Act » souhaite imposer un moratoire fédéral de dix ans empêchant les États d’agir sur l’IA et veut lier cette mesure au financement fédéral. L’objectif est de maintenir une régulation unifiée nationale, mais cette approche suscite une forte opposition pour atteinte aux droits des États et risques accrus pour les Américains. Il y a un débat en cours au Sénat pour modifier ou supprimer la clause avant la date butoir du 4 juillet.

À propos de l'Institute for Family Studies (IFS)

L'IFS est une organisation qui vise à promouvoir le bien-être des enfants par le biais de la recherche et de l'éducation publique. Ses programmes et ses plateformes se concentrent sur le mariage, le bien-être des enfants, la formation de la famille, l'éducation parentale et le rôle de la technologie dans la vie familiale.

Source : rapport d'étude

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'opposition des Américains au moratoire sur la réglementation sur l'IA ?
Donald Trump veut interdire aux États d'adopter des règles sur l'IA. Que pensez-vous de cette initiative ?
Quels sont les risques pour les Américains et le reste du monde si cette mesure venait à être adoptée définitivement ?
Peut-on vraiment faire confiance aux grandes entreprises technologiques pour s’autoréguler sans supervision publique ?

Voir aussi

Le projet de loi interdisant aux États d'appliquer des lois régissant l'IA pendant dix ans est très impopulaire, selon un sondage qui évoque la sécurité des plus jeunes à l'ère de l'IA

Sans mesures de protection adéquates, une IA puissante et non réglementée pourrait causer des dommages graves et « potentiellement irréversibles », a rapporté le gouverneur de Californie

La Chambre des représentants des États-Unis a adopté le "grand et beau" projet de loi budgétaire de Trump qui, s'il est promulgué, interdira aux États d'appliquer des lois réglementant l'IA pendant 10 ans
Vous avez lu gratuitement 40 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 27/06/2025 à 22:13
Il ne faut pas brider l'IA, c'est la plus grande invention de la décennie. Une révolution qui sera bien plus grande qu'Internet.
Malheureusement, la vision anti-science et anti-liberté est de plus en plus répandu en Occident.

Enfin, abandonner l'IA, c'est la laisser à la Chine.
0  1