IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un homme condamné à 18 ans de prison pour avoir utilisé l'IA pour créer des images d'abus sexuels sur enfant,
Un précédent de la manière dont les deepfakes créés par l'IA pourraient être poursuivis à l'avenir

Le , par Mathis Lucas

108PARTAGES

12  0 
La justice britannique envoie un signal fort aux personnes qui seraient tentées d'utiliser l'IA pour générer des deepfakes préjudiciables aux victimes et notamment aux enfants. Elle a condamné à 18 ans de prison un homme qui a utilisé l'IA pour créer des images d'abus sexuels sur enfant (CSAM). Sur une période de 18 mois, il a partagé et vendu en ligne à d'autres pédophiles les images qu'il a créées, ce qui lui a rapporté 5 000 livres sterling. Sa condamnation constitue « un exemple de la manière dont les contenus générés par l'IA et les deepfakes indécents et explicites pourraient être poursuivis à l'avenir ». La lutte contre les deepfakes reste un défi de taille.

Quand l'IA est utilisée pour créer et vendre du matériel d'abus sexuel sur enfant

Hugh Nelson, 27 ans, originaire de Bolton, en Angleterre, a plaidé coupable d'un total de 16 délits d'abus sexuels sur des enfants, notamment d'avoir transformé des photographies quotidiennes de vrais enfants en CSAM à l'aide des systèmes d'IA du fournisseur américain de logiciels Daz 3D. Il a également reconnu avoir encouragé d'autres personnes à commettre des délits sexuels sur des enfants. Une forme d'utilisation de l'IA qui suscite de profondes préoccupations.


Grâce aux progrès de l'IA, les images truquées (ou deepfakes) sont devenues plus réalistes et plus faciles à créer, ce qui a incité les experts à mettre en garde contre l'augmentation des images indécentes d'enfants générées par ordinateur. L'avènement de l'IA a également fortement amélioré le caractère réaliste des deepfakes, comme en témoignent les photos pornos de la chanteuse américaine Taylor Swift générées par une IA de Microsoft au début de cette année.

À l'époque, le PDG de Microsoft, Satya Nadella, avait appelé l'industrie technologique à prendre rapidement des mesures contre ce fléau. Jeanette Smith, procureure de l'unité chargée des abus sexuels sur les enfants au sein du Crown Prosecution Service, a déclaré que « l'affaire Nelson créait un nouveau précédent en ce qui concerne la manière dont les images générées par des outils d'IA générative et les deepfakes indécents et explicites pouvaient être poursuivis ».

« Cette affaire est l'une des premières du genre, mais nous nous attendons à en voir d'autres au fur et à mesure que la technologie évolue », a déclaré Jeanette Smith. Bien que Satya Nadella et d'autres dirigeants du secteur technologique appellent à agir contre les deepfakes, il n'y a aucune initiative sérieuse sur la question. Les entreprises d'IA proposent d'intégrer des filigranes à leurs produits respectifs, mais les experts sont sceptiques à l'égard de cette solution.

Hugh Nelson utilisait un générateur de caractères en 3D pour transformer des photos d'enfants ordinaires et non explicites en CSAM, avant de les vendre sur un forum Internet utilisé par des artistes. Les personnes qui connaissaient les enfants dans le monde réel envoyaient à l'homme de 27 ans des images de ces enfants. Hugh Nelson facturait ensuite à son réseau de pédophiles 80 livres sterling pour un nouveau « personnage » (un CSMA basé sur une photo d'enfant).

Daz 3D, la société qui a créé le logiciel utilisé par Hugh Nelson, a déclaré dans un communiqué que « son contrat de licence utilisateur interdit l'utilisation de son logiciel pour la création d'images qui violent les lois sur la pornographie enfantine ou l'exploitation sexuelle des enfants, ou qui sont autrement préjudiciables aux mineurs et qu'elle s'engage à améliorer continuellement sa capacité à empêcher l'utilisation de son logiciel à de telles fins ».

Une vente de matériels d'abus sexuel sur enfant générés à l'aide des outils d'IA

Jeanette Smith a déclaré : « il s'agit de l'une des premières affaires de ce type qui démontre un lien entre des personnes comme Nelson, qui créent des images générées par ordinateur à l'aide de la technologie, et la délinquance réelle qui se cache derrière ces images ». Cependant, les médias britanniques soulignent qu'un certain nombre de pédophiles ont été envoyés en prison ces derniers mois pour avoir utilisé l'IA afin de créer des images d'abus sexuel sur enfant.

La police du Grand Manchester a trouvé des images réelles d'enfants et des images générées par ordinateur d'abus sexuels sur des enfants sur les appareils de Nelson, qui ont été saisis en juin 2024. Sur une période de 18 mois, Hugh Nelson admet avoir gagné environ 5 000 livres sterling (soit environ 6 000 euros) en vendant les images qu'il avait générées. Dans certains cas, Hugh Nelson encourageait ensuite ses clients à violer et à agresser sexuellement les enfants.

Selon la décision de justice, les images générées par ordinateur ne ressemblaient pas exactement à de vraies photographies, mais pouvaient être classées dans la catégorie des « photographies indécentes » plutôt que dans celle des « images interdites », qui est généralement assortie d'une peine moins lourde. Selon Jeanette Smith, cela a été possible parce que les enquêteurs ont pu démontrer qu'elles étaient dérivées d'images d'enfants réels envoyées à Hugh Nelson.

En août 2024, Hugh Nelson a admis avoir créé et vendu des images d'abus sexuels d'enfants sur mesure, adaptées aux demandes spécifiques de ses clients. La police a également indiqué qu'il avait diffusé les images qu'il avait générées en ligne, à la fois gratuitement et contre rémunération. Les enfants dont Hugh Nelson recevait les photos étaient tous basés à l'étranger, notamment en France, en Italie et aux États-Unis. Les forces de l'ordre de ces pays ont été alertées.

L'agent-détective Carly Baines, de la police du Grand Manchester, a déclaré que « cette affaire était profondément horrible ». Carly Baines a ajouté : « il nous est apparu clairement, après des recherches approfondies sur ses nombreux appareils par des experts en criminalistique numérique, que son comportement allait bien au-delà de ce qu'il considérait manifestement comme une "opportunité commerciale" ».

CSAM générés à l'aide de l'IA : un phénomène critique qui prend de l'ampleur

Cette affaire survient alors que le secteur technologique et les autorités de régulation sont aux prises avec les répercussions sociales considérables de l'IA générative. Des entreprises telles que Google, Meta et X (ex-Twitter) s'efforcent de lutter contre les deepfakes sur leurs plateformes. Bien que ce soit la première fois qu'une personne soit poursuivie pour avoir créé ce type d'images d'abus sexuels sur enfant, les autorités se préparent à de nombreuses autres arrestations.

L'équipe de la police du Grand Manchester spécialisée dans les enquêtes sur les abus pédosexuels en ligne affirme que les images générées par l'IA sont devenues un élément courant de leurs enquêtes. De son côté, Graeme Biggar, directeur général de l'Agence nationale britannique de lutte contre la criminalité, a averti l'année dernière qu'il avait commencé à voir des images et des vidéos hyperréalistes d'abus sexuels sur des enfants qui ont été générées par l'IA.

Graeme Biggar a ajouté que « la visualisation de ce type de matériel, qu'il soit réel ou généré par ordinateur, augmente matériellement le risque que les délinquants passent à l'abus sexuel sur les enfants eux-mêmes ». Au sein de l'Internet Watch Foundation à Cambridge, des dizaines d'analystes parcourent Internet chaque jour, à la recherche d'images d'abus sexuels sur enfants et pour les retirer d'Internet. L'organisation a constaté une augmentation préoccupante.

Au cours des six derniers mois, l'association a vu plus d'images d'abus d'enfants créées à l'aide de l'IA qu'en 2023. Dan Sexton, directeur technique de l'organisation caritative, affirme : « notre travail a toujours été difficile. Mais nous n'avons jamais été confrontés à la possibilité que quelqu'un télécharge un logiciel sur son ordinateur et crée une quantité infinie de nouvelles images. Ils en utilisent autant qu'ils le peuvent jusqu'à ce que les disques durs se remplissent ».

« C'est un nouveau type de préjudice auquel nous n'avons pas été préparés », a ajouté Dan Sexton. L'un des analystes de l'organisation, connu uniquement sous le nom de Jeff lorsqu'il est au travail pour protéger son identité, s'est dit inquiet de voir à quel point la génération d'image à l'aide de l'IA devient convaincante. « Nous en sommes au point où même un analyste expérimenté aurait du mal à déterminer si elle est réelle ou non », a déclaré le dénommé Jeff.

Les cadres juridiques existants ne sont pas adaptés à la lutte contre le CSAM

Lorsque Hugh Nelson a plaidé coupable, l'agent-détective Carly Baines a déclaré : « cette affaire a...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 15/11/2025 à 16:11
Les briques de là dictature se mettent en place, l’une après l’autre
22  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 15/11/2025 à 19:28
Citation Envoyé par der§en Voir le message
Les briques de là dictature se mettent en place, l’une après l’autre
Hélas… c’est fou comment des gens non élus se permettent de faire passer des lois qu’aucun élu avant n’aurait proposé… Les français ont dit pourtant non à l’ue.
18  2 
Avatar de Epoch1
Membre à l'essai https://www.developpez.com
Le 21/01/2025 à 9:18
« Lorsque nous avons un mandat de perquisition et que nous nous trouvons devant une maison dont la porte est fermée à clé, et que vous savez que le criminel se trouve à l'intérieur de la maison, la population n'acceptera pas que vous ne puissiez pas entrer ».

Ça me fait marrer, cette image mal choisie qui met en lumière la mauvaise foi....

S'ils "savent" qu'il y a un criminel dans une maison et que le chiffrement est prétendument une entrave, la preuve pourtant est qu'ils n'ont pas eu besoin d'ouvrir les portes de tous les domiciles (la "levée" du chiffrement) pour obtenir les éléments tiers menant à la culpabilité du sujet, et permet d'affirmer qu'ils peuvent faire leur travail sans poser de backdoor.
Le cas échéant, cela pourrait devenir vite un problème pour tout le monde (cf affaire récente aux USA).
Etant donné que tous les moyens techniques / juridiques existent déjà, je soupçonne le fait que le "cas par cas" étant devenu trop pénible pour l'humain, autant opter pour le "tout brasser automatiquement"; et comme une machine fait ça plus rapidement que l'humain, ça peut en outre "libérer" des emplois.

Hop ! Une pierre deux coups...Pratique ! --'
14  0 
Avatar de ILP
Membre confirmé https://www.developpez.com
Le 29/11/2025 à 5:30
Je ne comprends pas comment le blocage du partage de contenus pédo va diminuer la pédo. Malheureusement, lorsque ces tordus partagent leurs contenus, le mal fait aux enfants est déjà fait. Bloquer le partage, c'est un peu cacher la merde au chat. Les pédos trouveront toujours des moyens de partager leurs saloperies. Ils seront plus compliqués à trouver.

Si l'on veut bloquer ce genre de contenus, il faut se donner les moyens de trouver ceux qui les produisent.

À moins que la finalité de cette loi ne soit pas la lutte contre la pédo, mais le contrôle de toutes les données échangées.
14  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/04/2025 à 11:06
Citation Envoyé par Patrick Ruiz Voir le message
[...]
« Nos maisons deviennent plus dangereuses que nos rues, car la criminalité se déplace en ligne. Pour assurer la sécurité de notre société et de nos concitoyens, nous devons sécuriser cet environnement numérique. Les entreprises technologiques ont une responsabilité sociale dans le développement d'un environnement plus sûr où les forces de l'ordre et la justice peuvent faire leur travail. Si la police perd la possibilité de recueillir des preuves, notre société ne sera pas en mesure de protéger les personnes contre la criminalité », écrit Europol.[...]
Bouh! Le paragraphe qui fait bien peur! Agrougroum! Les méchants cybercriminels sont dans votre maison!!!

Vite, détruisez ce qui les tient à l'écart en installant des backdoors, que promis juré, seules les forces de l'ordre auront le droit d'utiliser!

Pfff... Toujours les mêmes arguments ridicules...
13  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 07/07/2025 à 8:40
Je me répète : nous avons tous une vie privée mais nous ne sommes pas tous des criminels.
13  0 
Avatar de Christophe
Responsable Systèmes https://www.developpez.com
Le 07/07/2025 à 8:48
nous avons tous une vie privée
Plus pour longtemps....
13  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/07/2025 à 12:56
C'est une mesure pour surveiller la population et pas du tout pour surveiller les délinquants.
Les délinquants vont bien évidement prendre le soin d'utiliser des outils tiers qui permettent un haut niveau de chiffrage.
C'est la logique la plus élémentaire.
13  0 
Avatar de stigma
Membre expérimenté https://www.developpez.com
Le 29/11/2025 à 14:22
Citation Envoyé par Artaeus Voir le message
Incompréhensible qu'après avoir été refusé plusieurs fois, ils essayent encore de passer cette loi ...
Le respect des communications privées est essentiel au fonctionnement d'une démocratie.
Parce que tu crois qu'on est encore en démocratie ?
13  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 16/11/2025 à 9:27
Ils vont découvrir un cas de message privée ayant provoqué des abus (comme tout est possible sur des millions d'échange de message privé) ...
Ça sera ensuite médiatiser et afficher dans les médias pour soutenir cette politique liberticide et dangereuse.
La population adoptera un comportement de mouton et sera ensuite favorable pour "protéger les enfants".
Les opposants seront insultés de pro-pedo ou autre (méthode habituelle en Europe).

Il s'est passé la même chose pour les contrôles d'identité des sites de +18 et la censure DNS plus ancienne.
Ça sera ensuite les réseaux sociaux (qui arrive bientôt), et après les e-commerce et les VPN.

C'est toujours la même chose depuis plus de 15 ans, "protéger les enfants" ou le "terrorisme" pour vous retirer vos libertés et vos droits !
12  0