Les deepfakes étaient à l'origine des médias synthétiques qui avaient été manipulés numériquement pour remplacer de manière convaincante la ressemblance d'une personne par celle d'une autre. Le terme, inventé en 2017 par un utilisateur de Reddit, a été élargi pour couvrir toutes les vidéos, images ou sons fabriqués avec une intelligence artificielle pour paraître réels, par exemple des images réalistes de personnes qui n'existent pas.
Le président de la société, Brad Smith, a déclaré que les forces de l'ordre devraient disposer d'un « cadre juridique autonome » pour inculper les auteurs de fraudes générées par l'IA. Il a également appelé à une mise à jour des lois couvrant les images d'abus sexuels d'enfants et les images non consensuelles produites par l'IA.
Le chef de l'exécutif a également demandé au Congrès d'exiger des outils de provenance qui étiquettent le contenu produit par l'IA. Cela aiderait les gens à comprendre si le contenu est réel ou non, a déclaré M. Smith.
Il a fait remarquer que ces concepts n'étaient pas vraiment nouveaux et que des lois étaient déjà en vigueur ou en cours d'élaboration au niveau des États et au niveau fédéral, comme la loi sur l'IA du Colorado (qui exige d'informer les utilisateurs qu'ils interagissent avec l'IA) et la loi sur la recherche, l'innovation et la responsabilité en matière d'intelligence artificielle proposée par le Sénat des États-Unis. D'autres projets de loi, comme l'Intelligence Authorization Act du Sénat, rendraient illégale la suppression des données de provenance du matériel d'IA.
Des États comme la Californie, le Dakota du Sud et Washington ont adopté ou sont sur le point d'adopter des lois anti-CSAM qui tiennent compte de l'IA. Le Sénat a également proposé une loi pour lutter contre la désinformation électorale, la Protect Elections from Deceptive AI Act.
M. Smith a fait valoir que les gouvernements risquaient d'être trop lents pour faire face à la vague de fraudes et de manipulations liées à l'IA. Microsoft n'a pas toutes les réponses, a-t-il ajouté, mais elle peut « contribuer à l'action et l'accélérer ».
Le leader de la technologie est conscient des défis potentiels et a déclaré qu'une « approche de l'ensemble de la société » était nécessaire pour apporter les changements proposés. Et s'il souhaite que Microsoft et d'autres entreprises industrielles s'impliquent, il estime qu'elles doivent faire preuve d'humilité et prendre en compte les idées des autres participants.
Les recommandations de Microsoft ne changeront pas nécessairement l'élan politique en faveur de la lutte contre les « deepfakes » d'IA. Cependant, elles exposent la position de l'entreprise et font pression sur les autres géants de la technologie pour qu'ils suivent le mouvement, qu'il s'agisse d'alliés directs comme OpenAI ou de concurrents comme Apple et Google.
Dans une lettre ouverte, Brad Smith, président de Microsoft, s'est exprimé concernant la protection du public contre les contenus abusifs générés par l'IA :
Les deepfakes générés par l'IA sont réalistes, faciles à réaliser pour presque tout le monde et de plus en plus utilisés à des fins de fraude, d'abus et de manipulation - en particulier pour cibler les enfants et les personnes âgées. Alors que le secteur technologique et les groupes à but non lucratif ont récemment pris des mesures pour s'attaquer à ce problème, il est devenu évident que les lois devront également évoluer pour lutter contre la fraude par deepfake. En bref, de nouvelles lois sont nécessaires pour empêcher les mauvais acteurs d'utiliser des « deepfakes » pour escroquer les personnes âgées ou abuser des enfants.
Alors que l'accent a été mis, à juste titre, sur les « deepfakes » utilisés dans l'ingérence électorale, le rôle général qu'ils jouent dans ces autres types de crimes et d'abus doit faire l'objet d'une attention égale. Heureusement, les membres du Congrès ont proposé une série de lois qui contribueraient grandement à résoudre le problème, l'administration se concentre sur le problème, des groupes tels que l'AARP et le NCMEC sont profondément impliqués dans l'élaboration du débat, et l'industrie a travaillé ensemble et a construit une base solide dans des domaines adjacents qui peuvent être appliqués dans le présent cas.
L'une des choses les plus importantes que les États-Unis puissent faire est d'adopter une loi complète sur la fraude par deepfake afin d'empêcher les cybercriminels d'utiliser cette technologie pour voler les Américains de tous les jours.
Microsoft ne dispose pas de toutes les solutions ni de solutions parfaites, mais elle souhaite contribuer à l'action et l'accélérer. C'est pourquoi Microsoft a publié un livre blanc de 42 pages sur ce qui est à la base de la compréhension du défi ainsi qu'un ensemble complet d'idées comprenant des approbations pour le travail acharné et les politiques d'autres personnes.
Comme le suggère le titre du livre « Tools and Weapons » coécrit par Brad Smith en 2019, l'innovation technologique peut servir à la fois d'outil d'avancement sociétal et d'arme puissante. Dans le paysage numérique actuel qui évolue rapidement, l'essor de l'intelligence artificielle (IA) présente à la fois des opportunités sans précédent et des défis importants. L'IA transforme les petites entreprises, l'éducation et la recherche scientifique ; elle aide les médecins et les chercheurs médicaux à diagnostiquer et à découvrir des remèdes aux maladies ; et elle renforce la capacité des créateurs à exprimer de nouvelles idées. Cependant, cette même technologie produit également une explosion de contenus abusifs générés par l'IA, ou contenus « synthétiques » abusifs.
Cinq ans plus tard, nous nous trouvons à un moment de l'histoire où toute personne ayant accès à l'internet peut utiliser des outils d'IA pour créer un média synthétique très réaliste qui peut être utilisé pour tromper : un clone vocal d'un membre de la famille, une image truquée d'un candidat politique ou même un document gouvernemental falsifié. L'IA a rendu la manipulation des médias beaucoup plus facile, plus rapide, plus accessible et nécessitant peu de compétences. Aussi rapidement que la technologie de l'IA est devenue un outil, elle est devenue une arme.
À l'heure actuelle, le gouvernement américain a récemment annoncé qu'il était parvenu à interrompre une opération de désinformation financée par un État-nation et basée sur l'IA. Le directeur du FBI, Christopher Wray, a déclaré : « La Russie avait l'intention d'utiliser cette ferme de robots pour diffuser de la désinformation étrangère générée par l'IA, en étendant leur travail avec l'aide de l'IA pour saper nos partenaires en Ukraine et influencer les récits géopolitiques favorables au gouvernement russe ». S'il convient de féliciter les services répressifs américains d'avoir collaboré avec une plateforme technologique pour mener à bien cette opération, il faut également reconnaître que ce type de travail ne fait que commencer.
L'objectif de ce livre blanc est d'encourager les décideurs politiques, les leaders de la société civile et l'industrie technologique à agir plus rapidement contre les contenus abusifs générés par l'IA. Alors que nous naviguons sur ce terrain complexe, il est impératif que les secteurs public et privé s'unissent pour s'attaquer de front à ce problème. Les gouvernements jouent un rôle crucial dans la mise en place de cadres réglementaires et de politiques qui favorisent le développement et l'utilisation responsables de l'IA. Partout dans le monde, les gouvernements prennent des mesures pour améliorer la sécurité en ligne et lutter contre les contenus illégaux et préjudiciables.
Le secteur privé a la responsabilité d'innover et de mettre en œuvre des mesures de protection qui empêchent l'utilisation abusive de l'IA. Les entreprises technologiques doivent donner la priorité aux considérations éthiques dans leurs processus de recherche et de développement en matière d'IA. En investissant dans des techniques avancées d'analyse, de divulgation et d'atténuation, le secteur privé peut jouer un rôle central dans la réduction de la création et de la diffusion de contenus nuisibles générés par l'IA, maintenant ainsi la confiance dans l'écosystème de l'information.
La société civile joue un rôle important en veillant à ce que la réglementation gouvernementale et les actions volontaires de l'industrie respectent les droits de l'homme fondamentaux, notamment la liberté d'expression et la protection de la vie privée. En encourageant la transparence et la responsabilité, il est possible de renforcer la confiance du public dans les technologies de l'IA.
Microsoft a identifié trois objectifs spécifiques : 1) illustrer et analyser les préjudices causés par les contenus abusifs générés par l'IA, 2) expliquer l'approche de Microsoft et 3) proposer des recommandations politiques pour commencer à lutter contre ces problèmes. En fin de compte, pour relever les défis posés par les contenus abusifs générés par l'IA, il faut un front uni. En tirant parti des forces et de l'expertise des secteurs public, privé et des ONG, il est possible de créer un environnement numérique plus sûr et plus fiable pour tous. Ensemble, il est possible de libérer le pouvoir de l'IA pour le bien, tout en se protégeant de ses dangers potentiels.
La responsabilité de Microsoft dans la lutte contre les contenus abusifs générés par l'IA
En début d'année, Microsoft a défini une approche globale pour lutter contre les contenus abusifs générés par l'IA et protéger les personnes et les communautés, en s'appuyant sur six domaines d'action :
- Une architecture de sécurité solide.
- Une provenance durable des médias et filigrane.
- La protection de ses services contre les contenus et les comportements abusifs.
- Une collaboration solide entre les entreprises, les gouvernements et la société civile.
- Une législation modernisée pour protéger les personnes contre l'utilisation abusive des technologies.
- Une sensibilisation et une éducation du public.
Au cœur de ces six points se trouve la responsabilité de Microsoft de contribuer à lutter contre l'utilisation abusive de la technologie. Microsoft estime qu'il est impératif que le secteur technologique continue à prendre des mesures proactives pour lutter contre les préjudices constatés sur l'ensemble des services et des plates-formes. Microsoft a pris des mesures concrètes, notamment :
- Mise en place d'une architecture de sécurité comprenant une analyse de l'équipe rouge, des classificateurs préemptifs, le blocage des invites abusives, des tests automatisés et l'interdiction rapide des utilisateurs qui abusent du système.
- Attacher automatiquement des métadonnées de provenance aux images générées avec le modèle DALL-E 3 d'OpenAI dans Azure OpenAI Service, Microsoft Designer et Microsoft Paint.
- Développement de normes pour la provenance et l'authentification des contenus par l'intermédiaire de la Coalition for Content Provenance and Authenticity (C2PA) et mise en œuvre de la norme C2PA afin que les contenus intégrant la technologie soient automatiquement étiquetés sur LinkedIn.
- Prise de mesures continues pour protéger les utilisateurs contre les préjudices en ligne, notamment en rejoignant le programme Lantern de la Tech Coalition et en élargissant la disponibilité de PhotoDNA.
- Lancement de nouveaux outils de détection comme Azure Operator Call Protection pour les clients de Microsoft afin de détecter les escroqueries téléphoniques potentielles à l'aide de l'IA.
- Exécuter les engagements pris par Microsoft dans le cadre du nouvel accord technologique pour lutter contre l'utilisation trompeuse de l'IA dans les élections.
Protéger les Américains grâce à de nouvelles mesures législatives et politiques
En février dernier, Microsoft et LinkedIn ont rejoint des dizaines d'autres entreprises technologiques pour lancer le Tech Accord to Combat Deceptive Use of AI in 2024 Elections lors de la Conférence sur la sécurité de Munich. L'accord appelle à l'action sur trois piliers clés que Microsoft a utilisés pour inspirer le travail supplémentaire trouvé dans ce livre blanc : s'attaquer à la création de deepfakes, détecter et répondre aux deepfakes, et promouvoir la transparence et la résilience.
Outre la lutte contre les deepfakes d'IA dans le cadre des élections, il est important que les législateurs et les décideurs politiques prennent des mesures pour développer nos capacités collectives à (1) promouvoir l'authenticité du contenu, (2) détecter et répondre aux deepfakes abusifs, et (3) donner au public les outils pour s'informer sur les méfaits de l'IA de synthèse. Microsoft a formulé de nouvelles recommandations à l'intention des décideurs politiques aux États-Unis. Tout en réfléchissant à ces idées complexes, il convient de ne pas oublier d'envisager ce travail en termes simples. Ces recommandations visent à :
- Protéger les élections.
- Protéger les personnes âgées et les consommateurs contre la fraude en ligne.
- Protéger les femmes et les enfants de l'exploitation en ligne.
Dans ce contexte, il convient de mentionner trois idées qui pourraient avoir un impact considérable dans la lutte contre les contenus trompeurs et abusifs générés par l'IA.
- Premièrement, le Congrès devrait promulguer une nouvelle loi fédérale sur la fraude de type "deepfake". Il convient de donner aux responsables de l'application des lois, y compris aux procureurs généraux des États, un cadre juridique autonome leur permettant de poursuivre les fraudes et les escroqueries générées par l'IA, dont la vitesse et la complexité ne cessent de croître.
- Deuxièmement, le Congrès devrait exiger des fournisseurs de systèmes d'IA qu'ils utilisent des outils de provenance de pointe pour étiqueter le contenu synthétique. Cela est essentiel pour instaurer la confiance dans l'écosystème de l'information et aidera le public à mieux comprendre si le contenu est généré par l'IA ou manipulé.
- Troisièmement, il est indispensable de veiller à ce que les lois fédérales et nationales relatives à l'exploitation et aux abus sexuels concernant des enfants et à l'imagerie intime non consensuelle soient mises à jour pour inclure les contenus générés par l'IA. Des sanctions pour la création et la distribution de CSAM et de NCII (qu'ils soient synthétiques ou non) relèvent du bon sens et sont absolument nécessaires si l'on veut atténuer le fléau des mauvais acteurs qui utilisent des outils d'IA à des fins d'exploitation sexuelle, en particulier lorsque les victimes sont souvent des femmes et des enfants.
Ces idées ne sont pas nécessairement nouvelles. La bonne nouvelle, c'est que certaines de ces idées, sous une forme ou une autre, commencent déjà à prendre racine au Congrès et dans les assemblées législatives des États. Microsoft met l'accent sur des textes législatifs spécifiques qui correspondent à ses recommandations dans le présent document, et encourage les élus des États et du gouvernement fédéral à les prendre rapidement en considération.
Microsoft propose ces recommandations pour contribuer au dialogue indispensable sur les effets néfastes de l'IA sur les médias synthétiques. La mise en œuvre de l'une ou l'autre de ces propositions nécessitera fondamentalement une approche de l'ensemble de la société. S'il est impératif que l'industrie technologique ait un siège à la table, elle doit le faire avec humilité et en privilégiant l'action. Microsoft invite les parties prenantes de l'écosystème numérique à proposer d'autres idées pour lutter contre les méfaits des contenus synthétiques. En fin de compte, le danger n'est pas que nous allions trop vite, mais que nous allions trop lentement ou que nous n'allions pas du tout.
Source : "Protecting the public from abusive AI-generated content" (Livre blanc de Microsoft)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de Microsoft crédible ou pertinente ?
Voir aussi :
Des experts en IA et des dirigeants d'entreprises ont signé une lettre ouverte appelant à une plus grande réglementation de la création de "deepfakes", évoquant les risques potentiels pour la société
Les "deepfakes" constituent la plus grande préoccupation en matière d'IA, d'après Brad Smith, président de Microsoft
Microsoft dévoile des outils de détection de deepfakes, pour lutter contre les fausses nouvelles et d'autres formes de désinformation