La justice britannique envoie un signal fort aux personnes qui seraient tentées d'utiliser l'IA pour générer des deepfakes préjudiciables aux victimes et notamment aux enfants. Elle a condamné à 18 ans de prison un homme qui a utilisé l'IA pour créer des images d'abus sexuels sur enfant (CSAM). Sur une période de 18 mois, il a partagé et vendu en ligne à d'autres pédophiles les images qu'il a créées, ce qui lui a rapporté 5 000 livres sterling. Sa condamnation constitue « un exemple de la manière dont les contenus générés par l'IA et les deepfakes indécents et explicites pourraient être poursuivis à l'avenir ». La lutte contre les deepfakes reste un défi de taille.Quand l'IA est utilisée pour créer et vendre du matériel d'abus sexuel sur enfant
Hugh Nelson, 27 ans, originaire de Bolton, en Angleterre, a plaidé coupable d'un total de 16 délits d'abus sexuels sur des enfants, notamment d'avoir transformé des photographies quotidiennes de vrais enfants en CSAM à l'aide des systèmes d'IA du fournisseur américain de logiciels Daz 3D. Il a également reconnu avoir encouragé d'autres personnes à commettre des délits sexuels sur des enfants. Une forme d'utilisation de l'IA qui suscite de profondes préoccupations.
Grâce aux progrès de l'IA, les images truquées (ou deepfakes) sont devenues plus réalistes et plus faciles à créer, ce qui a incité les experts à mettre en garde contre l'augmentation des images indécentes d'enfants générées par ordinateur. L'avènement de l'IA a également fortement amélioré le caractère réaliste des deepfakes, comme en témoignent les photos pornos de la chanteuse américaine Taylor Swift générées par une IA de Microsoft au début de cette année.
À l'époque, le PDG de Microsoft, Satya Nadella, avait appelé l'industrie technologique à prendre rapidement des mesures contre ce fléau. Jeanette Smith, procureure de l'unité chargée des abus sexuels sur les enfants au sein du Crown Prosecution Service, a déclaré que « l'affaire Nelson créait un nouveau précédent en ce qui concerne la manière dont les images générées par des outils d'IA générative et les deepfakes indécents et explicites pouvaient être poursuivis ».
« Cette affaire est l'une des premières du genre, mais nous nous attendons à en voir d'autres au fur et à mesure que la technologie évolue », a déclaré Jeanette Smith. Bien que Satya Nadella et d'autres dirigeants du secteur technologique appellent à agir contre les deepfakes, il n'y a aucune initiative sérieuse sur la question. Les entreprises d'IA proposent d'intégrer des filigranes à leurs produits respectifs, mais les experts sont sceptiques à l'égard de cette solution.
Hugh Nelson utilisait un générateur de caractères en 3D pour transformer des photos d'enfants ordinaires et non explicites en CSAM, avant de les vendre sur un forum Internet utilisé par des artistes. Les personnes qui connaissaient les enfants dans le monde réel envoyaient à l'homme de 27 ans des images de ces enfants. Hugh Nelson facturait ensuite à son réseau de pédophiles 80 livres sterling pour un nouveau « personnage » (un CSMA basé sur une photo d'enfant).
Daz 3D, la société qui a créé le logiciel utilisé par Hugh Nelson, a déclaré dans un communiqué que « son contrat de licence utilisateur interdit l'utilisation de son logiciel pour la création d'images qui violent les lois sur la pornographie enfantine ou l'exploitation sexuelle des enfants, ou qui sont autrement préjudiciables aux mineurs et qu'elle s'engage à améliorer continuellement sa capacité à empêcher l'utilisation de son logiciel à de telles fins ».
Une vente de matériels d'abus sexuel sur enfant générés à l'aide des outils d'IA
Jeanette Smith a déclaré : « il s'agit de l'une des premières affaires de ce type qui démontre un lien entre des personnes comme Nelson, qui créent des images générées par ordinateur à l'aide de la technologie, et la délinquance réelle qui se cache derrière ces images ». Cependant, les médias britanniques soulignent qu'un certain nombre de pédophiles ont été envoyés en prison ces derniers mois pour avoir utilisé l'IA afin de créer des images d'abus sexuel sur enfant.
La police du Grand Manchester a trouvé des images réelles d'enfants et des images générées par ordinateur d'abus sexuels sur des enfants sur les appareils de Nelson, qui ont été saisis en juin 2024. Sur une période de 18 mois, Hugh Nelson admet avoir gagné environ 5 000 livres sterling (soit environ 6 000 euros) en vendant les images qu'il avait générées. Dans certains cas, Hugh Nelson encourageait ensuite ses clients à violer et à agresser sexuellement les enfants.
Selon la décision de justice, les images générées par ordinateur ne ressemblaient pas exactement à de vraies photographies, mais pouvaient être classées dans la catégorie des «...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
