IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des sénateurs proposent un « droit de reproduction numérique » qui pourrait s'étendre 70 ans après la mort
Accordant aux individus un contrôle exclusif sur l'utilisation de leur voix ou apparence visuelle

Le , par Stéphane le calme

10PARTAGES

8  0 
L’avènement de l’intelligence artificielle (IA) a ouvert de nouvelles perspectives, mais aussi posé des défis majeurs en matière de vie privée et de sécurité. Parmi ces défis, les deepfakes, ces vidéos et images synthétiques ultra-réalistes générées par des algorithmes, suscitent des inquiétudes croissantes. Face à cette menace, des sénateurs ont proposé le “droit de réplication numérique” pour protéger l’identité des individus, même après leur décès. Il accorde aux individus un contrôle exclusif sur l’utilisation de leur voix ou de leur apparence visuelle dans les répliques numériques.

L’intelligence artificielle a fait des progrès impressionnants ces dernières années, au point de pouvoir créer des répliques numériques de personnes réelles, en utilisant leurs voix, leurs visages, leurs écrits ou leurs personnalités. Ces répliques, sous la forme de chatbots, avatars ou deepfakes, peuvent être utilisées à des fins diverses, allant du divertissement à l’éducation, en passant par la thérapie ou la manipulation.

Les répliques numériques générées par l’IA éclairent un nouveau type de zone grise politique créée par de puissantes nouvelles plateformes « d’IA générative », où les lois existantes et les anciennes normes commencent à échouer.

À Washington, sous l’impulsion notamment d’acteurs et d’interprètes alarmés par la capacité de l’IA à imiter leur image et leur voix, certains membres du Congrès tentent déjà de freiner la montée des répliques numériques non autorisées. Au sein de la commission judiciaire du Sénat, un groupe bipartisan de sénateurs – dont les dirigeants de la sous-commission de la propriété intellectuelle – ont fait circuler un projet de loi intitulé NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe Act) qui obligerait les fabricants de répliques numériques générées par l'IA à autoriser leur utilisation à partir de l'original humain.

« De plus en plus, nous voyons l'IA utilisée pour reproduire l'image et la voix de quelqu'un de manière nouvelle sans consentement ni compensation », a déclaré la sénatrice Amy Klobuchar (Démocrate du Minnesota), en réponse aux histoires d'expérimentation d'IA impliquant Seligman et Perel. Elle est l'un des co-parrains du projet de loi. « Nos lois doivent suivre l’évolution rapide de cette technologie », a-t-elle déclaré.

Protéger les artistes contre les répliques numériques créées sans leur consentement

Mercredi, le projet de loi a été présenté officiellement. Les sénateurs américains Chris Coons (D-Del.), Marsha Blackburn (R-Tenn.), Amy Klobuchar (D-Minn.) et Thom Tillis (R-N.C.) ont indiqué que NO FAKES Act vise à protéger la voix et les ressemblances visuelles des créateurs et des individus contre la prolifération des répliques numériques créées sans leur consentement. L'introduction de ce projet de loi fait suite à la publication en octobre 2023 d'un projet de discussion, à une audition du sous-comité judiciaire sur la propriété intellectuelle en avril 2024 et à des conversations approfondies avec les principales parties prenantes, toutes destinées à améliorer et à renforcer le projet de loi.

La loi NO FAKES Act rendrait les particuliers ou les entreprises responsables des dommages causés par la production, l'hébergement ou le partage d'une réplique numérique d'une personne jouant dans une œuvre audiovisuelle, une image ou un enregistrement sonore dans lequel la personne n'est jamais apparue ou qu'elle n'a jamais approuvée, y compris les répliques numériques créées par l'intelligence artificielle générative (IA). Un service en ligne hébergeant la réplique non autorisée devra la retirer sur notification d'un titulaire de droits. Des exclusions sont prévues pour les protections reconnues du premier amendement, telles que les documentaires et les œuvres biographiques, ou à des fins de commentaire, de critique ou de parodie, entre autres. Le projet de loi prévoit également que les lois des États relatives aux répliques numériques seront largement supprimées afin de créer une norme nationale applicable.

« Chacun mérite le droit de posséder et de protéger sa voix et son image, qu'il s'agisse de Taylor Swift ou de n'importe qui d'autre », a déclaré le sénateur Coons. « L'IA générative peut être utilisée comme un outil pour stimuler la créativité, mais cela ne doit pas se faire au détriment de l'exploitation non autorisée de la voix ou de l'image de quelqu'un ».

L'introduction de la loi NO FAKES fait suite à l'adoption par le Sénat de la loi DEFIANCE, qui permet aux victimes de deepfakes sexuels d'intenter des actions en dommages et intérêts.


Une prolifération des deepfakes

Outre la saga Swift, nous avons assisté ces dernières années à des escroqueries fondées sur l'IA impliquant de fausses approbations de célébrités, la création de contenus politiques trompeurs et des situations dans lesquelles des écoliers ont utilisé la technologie de l'IA pour créer des deepfakes pornographiques de leurs camarades de classe. Récemment, Elon Musk, PDG de X, a partagé une vidéo dans laquelle la voix de la vice-présidente Kamala Harris, générée par l'IA, disait des choses qu'elle n'avait pas dites dans la vie réelle.

Ces incidents, qui s'ajoutent aux inquiétudes concernant la reproduction sans autorisation de l'image d'acteurs, ont suscité un sentiment d'urgence chez les législateurs américains, qui souhaitent limiter l'impact des ressemblances numériques non autorisées. Actuellement, certains types de "deepfakes" générés par l'IA sont déjà illégaux en raison d'un patchwork de lois fédérales et étatiques, mais cette nouvelle loi espère unifier la réglementation en matière de ressemblance autour du concept de « répliques numériques ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">(WATCH) SAG-AFTRA’s Rebecca Damon announces US Senate bill to protect actors from unregulated AI <a href="https://twitter.com/hashtag/SAGAFTRAStrike?src=hash&amp;ref_src=twsrc%5Etfw">#SAGAFTRAStrike</a> <a href="https://t.co/BiciPpz4tE">pic.twitter.com/BiciPpz4tE</a></p>&mdash; Deadline Hollywood (@DEADLINE) <a href="https://twitter.com/DEADLINE/status/1712520634063007855?ref_src=twsrc%5Etfw">October 12, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Un contrôle sur la reproduction numérique valable des années après le décès

Pour protéger l'image numérique d'une personne, la loi NO FAKES Act introduit un "droit de reproduction numérique" qui donne aux individus le contrôle exclusif de l'utilisation de leur voix ou de leur image dans les reproductions numériques. Ce droit est valable dix ans après le décès, avec une possibilité de prolongation de cinq ans en cas d'utilisation active. Il peut faire l'objet d'une licence à vie et être hérité après le décès, pour une durée maximale de 70 ans après la mort de l'individu. En cours de route, le projet de loi définit ce qu'il considère comme une "réplique numérique" :

RÉPLIQUE NUMÉRIQUE Le terme "réplique numérique" désigne une représentation électronique nouvellement créée, générée par ordinateur, très réaliste et facilement identifiable comme étant la voix ou la ressemblance visuelle d'une personne physique qui - (A) est incorporée dans un enregistrement sonore, une image, une œuvre audiovisuelle, y compris une œuvre audiovisuelle qui n'est pas accompagnée de sons, ou une transmission - (i) dans laquelle la personne physique ne s'est pas réellement produite ou n'est pas apparue ; ou (ii) qui est une version d'un enregistrement sonore, d'une image ou d'une œuvre audiovisuelle dans laquelle la personne physique s'est effectivement produite ou est apparue, dans laquelle le caractère fondamental de la prestation ou de l'apparition a été matériellement modifié ; et (B) ne comprend pas la reproduction électronique, l'utilisation d'un échantillon d'un enregistrement sonore ou d'une œuvre audiovisuelle dans un autre, le remixage, le mastering ou le remastering numérique d'un enregistrement sonore ou d'une œuvre audiovisuelle autorisé par le détenteur du droit d'auteur.
(Il y a une certaine ironie dans la mention d'une "œuvre audiovisuelle qui n'est pas accompagnée de sons".

Étant donné que ce projet de loi interdit certains types d'expression artistique, le NO FAKES Act comprend des dispositions visant à équilibrer la protection de la propriété intellectuelle et la liberté d'expression. Elle prévoit des exclusions pour les protections reconnues du premier amendement, telles que les documentaires, les œuvres biographiques et les contenus créés à des fins de commentaire, de critique ou de parodie.

À certains égards, ces exceptions pourraient créer un écart de protection très important qu'il pourrait être difficile de faire respecter sans décisions judiciaires spécifiques au cas par cas. Mais sans elles, la loi NO FAKES Act pourrait potentiellement étouffer les droits à la liberté d'expression protégés par la Constitution, puisque le concept de "répliques numériques" décrit dans le projet de loi inclut toute "ressemblance numérique générée par ordinateur et hautement réaliste" d'une personne réelle, qu'elle soit générée par l'intelligence artificielle ou non. Par exemple, une illustration photoréaliste d'une personne sur Photoshop est-elle "générée par ordinateur" ? Des questions similaires peuvent conduire à des incertitudes dans l'application de la loi.


Un large soutien de l'industrie du divertissement

Jusqu'à présent, la loi "NO FAKES Act" a obtenu le soutien de plusieurs groupes de l'industrie du divertissement, notamment la Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA), la Recording Industry Association of America (RIAA), la Motion Picture Association et la Recording Academy. Ces organisations ont activement cherché à obtenir des protections contre les recréations non autorisées de l'IA.

Le projet de loi a également reçu le soutien de sociétés de divertissement telles que The Walt Disney Company, Warner Music Group, Universal Music Group, Sony Music, Independent Film & Television Alliance, William Morris Endeavor, Creative Arts Agency, Authors Guild et Vermillio.

Plusieurs entreprises technologiques, dont IBM et OpenAI, ont également soutenu la loi NO FAKES. Anna Makanju, vice-présidente des affaires internationales d'OpenAI, a déclaré dans un communiqué que la loi protégerait les créateurs et les artistes contre les usurpations d'identité. « OpenAI est heureuse de soutenir la loi NO FAKES, qui protégerait les créateurs et les artistes contre les répliques numériques non autorisées de leurs voix et de leurs ressemblances », a-t-elle déclaré.

Sources : sénateur Chris Coons, NO FAKES Act

Et vous ?

Que pensez-vous de ce projet de loi ? Si vous soutenez l'idée, a-t-il, selon vous, des chances d'être efficace ?
Jusqu’où devrait aller le contrôle des individus sur leurs représentations numériques ? Devrions-nous permettre des extensions au-delà de 70 ans après la mort ?
Quelles sont les implications pour la liberté d’expression et la créativité artistique ? Comment équilibrer la protection des droits individuels avec la liberté d’utiliser des technologies comme les deepfakes ?
Comment pouvons-nous détecter et prévenir les abus de deepfakes ? Quelles solutions technologiques ou législatives sont nécessaires ?
Quels sont les risques pour la vie privée et la réputation des individus ? Comment pouvons-nous minimiser ces risques ?
Devrions-nous envisager des exceptions pour un usage éducatif, satirique ou artistique ? Si oui, comment les définir ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de CoderInTheDark
Membre émérite https://www.developpez.com
Le 24/08/2024 à 17:57
Je comprends pas il a signé ? Il a bien lu ce qu'il a signé ?
Alors pourquoi il se plaint.

Ou il a fait confiance à son agent et signé sans lire, faut être con ouarff.

Ca me fait penser à un épisode de "black mirror Joan est horrible".
L'image de Salma Hayek est utilisé à l'insu de son plein gré par une IA, et a dérape, elle avait signé sans lire les petites lignes ;D

Ce qui est sûr c'est que si il y a un film d'action avec Nicolas Cage qui saute dans tous les sens fait du karaté ou du sport c'est sûr que c'est un acteur généré par IA

Par contre le dernier film de lui que j'ai écouté, dans lequel il jouait son rôle d'acteur sur le retour acceptant un gros chèque d'un fan, et bah c'est pas terrible.
J'en regretterais presque ces film d'actions où ça pétait dans tous les sens, sauf "Saillor etLula" qui m'a retourné mon cerveau lent
0  0