Dans une démarche visant à lutter contre la violence faite aux femmes, le ministère de la Justice du Royaume-Uni a annoncé qu’il criminaliserait la création d’images deepfake à caractère sexuel explicite. Cette nouvelle législation, qui n’a pas encore été adoptée, prévoit des poursuites et une amende illimitée pour les contrevenants. Les images deepfake, qui sont des faux créés par intelligence artificielle pour ressembler à des personnes réelles dans des situations sexuelles explicites, sont de plus en plus utilisées pour humilier ou causer du tort aux victimes. La création de ces images sera considérée comme une infraction pénale, même si le créateur n’a pas l’intention de les partager.Au cours de la dernière décennie, l'essor de la technologie de synthèse d'images par apprentissage profond a permis aux personnes disposant d'un PC grand public de créer de plus en plus facilement de la « pornographie trompeuse » en remplaçant les visages des acteurs par ceux d'une autre personne qui n'a pas consenti à l'acte. Cette pratique a donné naissance au terme "deepfake" en 2017, l'association de "deep learning" (apprentissage profond) et "fake" (factice). Depuis lors, le terme s'est étendu pour englober des images et des vidéos entièrement nouvelles synthétisées à partir de zéro, créées à partir de réseaux neuronaux qui ont été entraînés sur des images de la victime.
Les progrès rapides de l'intelligence artificielle ont entraîné une augmentation de la création et de la diffusion de fausses images et de fausses vidéos. Le Royaume-Uni a classé la violence à l'égard des femmes et des filles comme une menace nationale, ce qui signifie que la police doit donner la priorité à la lutte contre ce phénomène, et cette loi est conçue pour l'aider à réprimer une pratique qui est de plus en plus utilisée pour humilier ou affliger les victimes.
Mardi, le gouvernement britannique a annoncé une nouvelle loi visant la création de fausses images sexuellement explicites générées par l'IA. En vertu de cette loi, qui n'a pas encore été adoptée, les contrevenants s'exposent à des poursuites et à une amende illimitée, même s'ils ne diffusent pas les images à grande échelle, mais les créent dans l'intention d'affliger la victime. Le gouvernement considère que cette loi s'inscrit dans le cadre d'un effort plus large visant à renforcer la protection juridique des femmes.
Le gouvernement introduit également de nouvelles infractions pénales pour les personnes qui prennent ou enregistrent des images intimes réelles sans consentement, ou installent des équipements pour permettre à quelqu’un de le faire. Un nouveau facteur aggravant statutaire sera introduit pour les délinquants qui causent la mort par un comportement sexuel abusif, dégradant ou dangereux.
Laura Farris, Minister for Victims and Safeguarding, a déclaré :
La création de fausses images sexuelles est méprisable et totalement inacceptable, que l'image soit partagée ou non. C'est un autre exemple de la manière dont certaines personnes cherchent à dégrader et à déshumaniser les autres, en particulier les femmes. Et cela peut avoir des conséquences catastrophiques si le matériel est partagé à plus grande échelle. Ce gouvernement ne le tolérera pas. Ce nouveau délit envoie un message très clair : la production de ce matériel est immorale, souvent misogyne, et constitue un délit.
Le problème n'est pas propre au Royaume-Uni
En mars, en Floride, deux garçons âgés de 13 et 14 ans ont été inculpés pour avoir diffusé de faux nus de leurs camarades de classe. L'essor des modèles de synthèse d'images open source tels que Stable Diffusion depuis 2022 a renforcé l'urgence pour les régulateurs américains de tenter d'endiguer (ou au moins de punir) l'acte de création de deepfakes non consensuels. Le gouvernement britannique s'est engagé dans une mission similaire.
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.