Proposée et parrainée par les démocrates Maria Cantwell (Washington) et Martin Heinrich (Nouveau-Mexique), ainsi que par la républicaine Marsha Blackburn (Tennessee), la législation vise à établir des normes de transparence applicables au développement de l'intelligence artificielle. Les sénateurs ont l'intention de charger l'Institut national des normes et de la technologie d'élaborer des lignes directrices raisonnables en matière de transparence si le projet de loi est adopté.
« La loi bipartisane COPIED, que j'ai présentée avec les sénateurs Blackburn et Heinrich, apportera une transparence indispensable aux contenus générés par l'IA », a déclaré la sénatrice Cantwell.
La législation vise également à limiter l'utilisation non autorisée de données dans les modèles d’entraînement. L'acquisition de données de formation se situe actuellement dans une zone grise sur le plan juridique. Au cours des dernières années, nous avons assisté à des débats et à des procès concernant la légalité de l'utilisation d'informations publiques en ligne. Clearview AI est probablement le plus grand abuseur de cette méthode de formation, mais il n'est pas le seul. D'autres entreprises, dont OpenAI, Microsoft et Google, ont eu du mal à franchir la ligne infiniment fine entre la légalité et l'éthique lorsqu'il s'agit d'entraîner leurs systèmes sur du matériel protégé par le droit d'auteur.🚨 [AI REGULATION] A new AI law was introduced in the US to combat deepfakes, increase AI transparency, and empower creators. Here's what you need to know:
— Luiza Jarovsky (@LuizaJarovsky) July 15, 2024
➡ The Content Origin Protection and Integrity from Edited and Deepfaked Media Act (COPIED ACT) was introduced last week by… pic.twitter.com/yBrij4hb26
« L'intelligence artificielle a donné à des acteurs malveillants la possibilité de créer des imitations profondes de chaque individu, y compris ceux de la communauté créative, afin d'imiter leur image sans leur consentement et de tirer profit de contenus contrefaits », a déclaré le sénateur Blackburn. « La loi COPIED constitue une étape importante pour mieux défendre des cibles communes telles que les artistes et les interprètes contre les deepfakes et autres contenus inauthentiques ».
Les sénateurs estiment qu'il est essentiel de clarifier et de définir ce qui est acceptable et ce qui ne l'est pas en ce qui concerne le développement de l'IA, afin de protéger les citoyens, les artistes et les personnalités publiques des dommages qu'une mauvaise utilisation de la technologie pourrait causer, notamment en créant des « deepfakes ». Les faux pornos sont un problème depuis des années, et la technologie n'a fait que s'améliorer. Il est révélateur que le Congrès ait ignoré le problème jusqu'à présent. La proposition intervient quelques mois seulement après que quelqu'un a utilisé une technologie de clonage de voix pour se faire passer pour le président Biden et dire aux gens de ne pas voter.
Les « deepfakes » constituent une véritable menace pour notre démocratie, ainsi que pour la sécurité et le bien-être des Américains », a déclaré le sénateur Heinrich. « Je suis fier de soutenir la loi COPIED de la sénatrice Cantwell, qui fournira les outils techniques nécessaires pour lutter contre les contenus nuisibles et trompeurs générés par l'IA et pour mieux protéger les journalistes professionnels et les artistes contre l'utilisation de leurs contenus par des systèmes d'IA sans leur consentement.
La Nashville Songwriters Association International, la SAG-AFTRA, la National Music Publishers' Association, la RIAA et plusieurs organismes de radiodiffusion et de presse ont publié des déclarations applaudissant cette initiative. En revanche, Google, Microsoft, OpenAI et d'autres fournisseurs d'IA sont silencieux.
Des lois similaires en vigueur en UE empêchent les géants technologiques de siphonner les données des internautes à leur guise mais certains acteurs estiment qu’elles sont susceptibles de constituer un frein à l’innovation
Meta a interrompu son projet d’entraînement de ses systèmes d'intelligence artificielle en utilisant les données de ses utilisateurs dans l'Union européenne et au Royaume-Uni. Cette décision fait suite au refus de la Commission irlandaise de protection des données (DPC), le principal régulateur de Meta dans l'UE, qui agit au nom de plusieurs autorités de protection des données dans l'ensemble de l'Union.
Seulement certains intervenants sont d’avis que l’application de ces lois constitue un frein à l’innovation qui mettra l’Europe en retard sur les USA et la Chine.
« Autre axe, c'est évidemment l'intelligence artificielle. Là-dessus, point n'est besoin d'y revenir, j'en ai beaucoup parlé il y a encore quelques jours. On a une révolution en cours. Mais au fond, sur ce sujet, on a eu une étrange semaine. On a eu à la fois Mistral qui a levé des financements record dans le secteur, près de 400 millions d'euros. Chapeau, bravo ! Vous pouvez les applaudir. C'est vraiment le génie français comme on aime à le voir et à le célébrer. Et on a eu une réglementation européenne qui est venue consolider, c'est une bonne chose, un modèle français de la régulation mais qui, à mes yeux, je vous parle en toute franchise, fait qu'on est le premier endroit au monde où sur les modèles dits fondationnels d'IA, on va beaucoup plus réguler que les autres.
Moi, je pense que ce n'est pas une bonne idée et je le dis en toute honnêteté. Il faudra donc l'évaluer parce qu’aujourd'hui, quand je regarde, la France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains. Alors on peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n’inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme. Donc moi, je demande à ce qu'on évalue de manière régulière cette réglementation et si on perd des leaders ou des pionniers à cause de ça, il faudra revenir. C'est clé », estime le président français.
C’est une position similaire à celle du co-fondateur et PDG de Limit à propos de l’AI Act : « Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.
Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.
Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses. »
Source : projet de loi
Et vous ?
Quelle est la priorité la plus importante pour vous en tant qu’utilisateur ? Préférez-vous que les entreprises protègent davantage vos données personnelles ou qu’elles rendent leurs produits plus interopérables avec d’autres services ?
Pensez-vous que les réglementations telles que le Digital Markets Act (DMA) sont nécessaires pour encadrer les géants de la technologie ? Ou devrions-nous laisser les entreprises décider elles-mêmes de leurs politiques de déploiement de nouvelles technologies ?
Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
Voir aussi :
Les États-Unis s'attaquent aux lacunes dans les restrictions sur les exportations de puces d'IA vers la Chine et prévoient d'introduire de nouvelles lignes directrices de restrictions
Les États-Unis veulent entraver l'industrie chinoise des puces électroniques en adoptant de nouvelles règles d'exportation radicales, mais la Chine dénonce ces règles et exige qu'elles soient levées
Les États-Unis étendent les restrictions à l'exportation de puces d'IA aux pays du Moyen-Orient