IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un homme condamné à 18 ans de prison pour avoir utilisé l'IA pour créer des images d'abus sexuels sur enfant,
Un précédent de la manière dont les deepfakes créés par l'IA pourraient être poursuivis à l'avenir

Le , par Mathis Lucas

19PARTAGES

12  0 
La justice britannique envoie un signal fort aux personnes qui seraient tentées d'utiliser l'IA pour générer des deepfakes préjudiciables aux victimes et notamment aux enfants. Elle a condamné à 18 ans de prison un homme qui a utilisé l'IA pour créer des images d'abus sexuels sur enfant (CSAM). Sur une période de 18 mois, il a partagé et vendu en ligne à d'autres pédophiles les images qu'il a créées, ce qui lui a rapporté 5 000 livres sterling. Sa condamnation constitue « un exemple de la manière dont les contenus générés par l'IA et les deepfakes indécents et explicites pourraient être poursuivis à l'avenir ». La lutte contre les deepfakes reste un défi de taille.

Quand l'IA est utilisée pour créer et vendre du matériel d'abus sexuel sur enfant

Hugh Nelson, 27 ans, originaire de Bolton, en Angleterre, a plaidé coupable d'un total de 16 délits d'abus sexuels sur des enfants, notamment d'avoir transformé des photographies quotidiennes de vrais enfants en CSAM à l'aide des systèmes d'IA du fournisseur américain de logiciels Daz 3D. Il a également reconnu avoir encouragé d'autres personnes à commettre des délits sexuels sur des enfants. Une forme d'utilisation de l'IA qui suscite de profondes préoccupations.


Grâce aux progrès de l'IA, les images truquées (ou deepfakes) sont devenues plus réalistes et plus faciles à créer, ce qui a incité les experts à mettre en garde contre l'augmentation des images indécentes d'enfants générées par ordinateur. L'avènement de l'IA a également fortement amélioré le caractère réaliste des deepfakes, comme en témoignent les photos pornos de la chanteuse américaine Taylor Swift générées par une IA de Microsoft au début de cette année.

À l'époque, le PDG de Microsoft, Satya Nadella, avait appelé l'industrie technologique à prendre rapidement des mesures contre ce fléau. Jeanette Smith, procureure de l'unité chargée des abus sexuels sur les enfants au sein du Crown Prosecution Service, a déclaré que « l'affaire Nelson créait un nouveau précédent en ce qui concerne la manière dont les images générées par des outils d'IA générative et les deepfakes indécents et explicites pouvaient être poursuivis ».

« Cette affaire est l'une des premières du genre, mais nous nous attendons à en voir d'autres au fur et à mesure que la technologie évolue », a déclaré Jeanette Smith. Bien que Satya Nadella et d'autres dirigeants du secteur technologique appellent à agir contre les deepfakes, il n'y a aucune initiative sérieuse sur la question. Les entreprises d'IA proposent d'intégrer des filigranes à leurs produits respectifs, mais les experts sont sceptiques à l'égard de cette solution.

Hugh Nelson utilisait un générateur de caractères en 3D pour transformer des photos d'enfants ordinaires et non explicites en CSAM, avant de les vendre sur un forum Internet utilisé par des artistes. Les personnes qui connaissaient les enfants dans le monde réel envoyaient à l'homme de 27 ans des images de ces enfants. Hugh Nelson facturait ensuite à son réseau de pédophiles 80 livres sterling pour un nouveau « personnage » (un CSMA basé sur une photo d'enfant).

Daz 3D, la société qui a créé le logiciel utilisé par Hugh Nelson, a déclaré dans un communiqué que « son contrat de licence utilisateur interdit l'utilisation de son logiciel pour la création d'images qui violent les lois sur la pornographie enfantine ou l'exploitation sexuelle des enfants, ou qui sont autrement préjudiciables aux mineurs et qu'elle s'engage à améliorer continuellement sa capacité à empêcher l'utilisation de son logiciel à de telles fins ».

Une vente de matériels d'abus sexuel sur enfant générés à l'aide des outils d'IA

Jeanette Smith a déclaré : « il s'agit de l'une des premières affaires de ce type qui démontre un lien entre des personnes comme Nelson, qui créent des images générées par ordinateur à l'aide de la technologie, et la délinquance réelle qui se cache derrière ces images ». Cependant, les médias britanniques soulignent qu'un certain nombre de pédophiles ont été envoyés en prison ces derniers mois pour avoir utilisé l'IA afin de créer des images d'abus sexuel sur enfant.

La police du Grand Manchester a trouvé des images réelles d'enfants et des images générées par ordinateur d'abus sexuels sur des enfants sur les appareils de Nelson, qui ont été saisis en juin 2024. Sur une période de 18 mois, Hugh Nelson admet avoir gagné environ 5 000 livres sterling (soit environ 6 000 euros) en vendant les images qu'il avait générées. Dans certains cas, Hugh Nelson encourageait ensuite ses clients à violer et à agresser sexuellement les enfants.

Selon la décision de justice, les images générées par ordinateur ne ressemblaient pas exactement à de vraies photographies, mais pouvaient être classées dans la catégorie des « photographies indécentes » plutôt que dans celle des « images interdites », qui est généralement assortie d'une peine moins lourde. Selon Jeanette Smith, cela a été possible parce que les enquêteurs ont pu démontrer qu'elles étaient dérivées d'images d'enfants réels envoyées à Hugh Nelson.

En août 2024, Hugh Nelson a admis avoir créé et vendu des images d'abus sexuels d'enfants sur mesure, adaptées aux demandes spécifiques de ses clients. La police a également indiqué qu'il avait diffusé les images qu'il avait générées en ligne, à la fois gratuitement et contre rémunération. Les enfants dont Hugh Nelson recevait les photos étaient tous basés à l'étranger, notamment en France, en Italie et aux États-Unis. Les forces de l'ordre de ces pays ont été alertées.

L'agent-détective Carly Baines, de la police du Grand Manchester, a déclaré que « cette affaire était profondément horrible ». Carly Baines a ajouté : « il nous est apparu clairement, après des recherches approfondies sur ses nombreux appareils par des experts en criminalistique numérique, que son comportement allait bien au-delà de ce qu'il considérait manifestement comme une "opportunité commerciale" ».

CSAM générés à l'aide de l'IA : un phénomène critique qui prend de l'ampleur

Cette affaire survient alors que le secteur technologique et les autorités de régulation sont aux prises avec les répercussions sociales considérables de l'IA générative. Des entreprises telles que Google, Meta et X (ex-Twitter) s'efforcent de lutter contre les deepfakes sur leurs plateformes. Bien que ce soit la première fois qu'une personne soit poursuivie pour avoir créé ce type d'images d'abus sexuels sur enfant, les autorités se préparent à de nombreuses autres arrestations.

L'équipe de la police du Grand Manchester spécialisée dans les enquêtes sur les abus pédosexuels en ligne affirme que les images générées par l'IA sont devenues un élément courant de leurs enquêtes. De son côté, Graeme Biggar, directeur général de l'Agence nationale britannique de lutte contre la criminalité, a averti l'année dernière qu'il avait commencé à voir des images et des vidéos hyperréalistes d'abus sexuels sur des enfants qui ont été générées par l'IA.

Graeme Biggar a ajouté que « la visualisation de ce type de matériel, qu'il soit réel ou généré par ordinateur, augmente matériellement le risque que les délinquants passent à l'abus sexuel sur les enfants eux-mêmes ». Au sein de l'Internet Watch Foundation à Cambridge, des dizaines d'analystes parcourent Internet chaque jour, à la recherche d'images d'abus sexuels sur enfants et pour les retirer d'Internet. L'organisation a constaté une augmentation préoccupante.

Au cours des six derniers mois, l'association a vu plus d'images d'abus d'enfants créées à l'aide de l'IA qu'en 2023. Dan Sexton, directeur technique de l'organisation caritative, affirme : « notre travail a toujours été difficile. Mais nous n'avons jamais été confrontés à la possibilité que quelqu'un télécharge un logiciel sur son ordinateur et crée une quantité infinie de nouvelles images. Ils en utilisent autant qu'ils le peuvent jusqu'à ce que les disques durs se remplissent ».

« C'est un nouveau type de préjudice auquel nous n'avons pas été préparés », a ajouté Dan Sexton. L'un des analystes de l'organisation, connu uniquement sous le nom de Jeff lorsqu'il est au travail pour protéger son identité, s'est dit inquiet de voir à quel point la génération d'image à l'aide de l'IA devient convaincante. « Nous en sommes au point où même un analyste expérimenté aurait du mal à déterminer si elle est réelle ou non », a déclaré le dénommé Jeff.

Les cadres juridiques existants ne sont pas adaptés à la lutte contre le CSAM

Lorsque Hugh Nelson a plaidé coupable, l'agent-détective Carly Baines a déclaré : « cette affaire a ét...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Epoch1
Membre à l'essai https://www.developpez.com
Le 21/01/2025 à 9:18
« Lorsque nous avons un mandat de perquisition et que nous nous trouvons devant une maison dont la porte est fermée à clé, et que vous savez que le criminel se trouve à l'intérieur de la maison, la population n'acceptera pas que vous ne puissiez pas entrer ».

Ça me fait marrer, cette image mal choisie qui met en lumière la mauvaise foi....

S'ils "savent" qu'il y a un criminel dans une maison et que le chiffrement est prétendument une entrave, la preuve pourtant est qu'ils n'ont pas eu besoin d'ouvrir les portes de tous les domiciles (la "levée" du chiffrement) pour obtenir les éléments tiers menant à la culpabilité du sujet, et permet d'affirmer qu'ils peuvent faire leur travail sans poser de backdoor.
Le cas échéant, cela pourrait devenir vite un problème pour tout le monde (cf affaire récente aux USA).
Etant donné que tous les moyens techniques / juridiques existent déjà, je soupçonne le fait que le "cas par cas" étant devenu trop pénible pour l'humain, autant opter pour le "tout brasser automatiquement"; et comme une machine fait ça plus rapidement que l'humain, ça peut en outre "libérer" des emplois.

Hop ! Une pierre deux coups...Pratique ! --'
13  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 21/01/2025 à 11:15
Comme toujours, je suis totalement opposé à l'affaiblissement du chiffrement.
Oui, ce dernier permet peut-être (& même très sûrement) aux criminels de toutes sortes de correspondre facilement.
Mais il permet aussi aux entreprises, aux administrations... d'échanger en toute sécurité.
Diminuer cette protection favoriserait l'espionnage, par des pays peu amicaux, aussi bien militaire qu'industriel ou scientifique. D'où grand danger.
Et ça ne changerait qu'à la marge l'activité des malfaiteurs, qui communiqueraient alors par d'autres moyens, comme ils le faisaient jadis.
10  0 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 17/01/2025 à 22:52
L’hypocrisie totale alors que Keir Stramer, en sa qualité de Procureur du Roi, a utilisé sa position de procureur, pour éviter aux violeurs pakistanais, d'être poursuivi pour des milliers de viols de tortures et d'assassinat de jeunes filles anglaises.
8  0 
Avatar de loufab
Rédacteur/Modérateur https://www.developpez.com
Le 21/01/2025 à 12:04
Bonjour,
Le sujet qui revient dans toutes les démocraties.

Les entreprises technologiques devraient-elles être légalement obligées de fournir un accès aux forces de l’ordre en cas d’enquête criminelle ? Si oui, dans quelles conditions ?
Via une commission rogatoire, ce qui se pratique actuellement. Si la Justice est lente ou ne fait pas son job, c'est cela qu'il faut régler. C'est assez habituel cette manière de procéder : On a un problème et on cherche des palliatifs au lieu de s'y attaquer.

Comment les géants de la tech peuvent-ils équilibrer leur engagement envers la confidentialité des utilisateurs et leur responsabilité envers la sécurité publique ?
Une entreprise privée ne peut se substituer au rôle de l'état. Aller dans ce sens va forcément entrainer des dérives comme on l'a déjà vu avec les écoutes téléphonique de ce très démocrate et économe Mitterrand.

La création de portes dérobées pour les forces de l’ordre est-elle techniquement faisable sans mettre en danger la sécurité globale des systèmes ?
Faisable, bien évidemment, mais cela met forcément la sécurité en défaut et très complexe dans la mise en oeuvre vu le nombre de fournisseurs. On voit tous les jours des affaires de corruptions (Douanes au Havre, Prison de Fresnes...), comme actuellement tout est informatisé (ou presque) celui qui détient la clef peut faire ce qu'il veut.

Quand au sujet politique (Trump ou pas) je ne pense pas que cela soit le sujet de l'ariticle

Quelles alternatives au chiffrement de bout en bout pourraient permettre de protéger les données personnelles tout en soutenant les enquêtes criminelles ?
Honnêtement on a besoin de rien, tout y est, pour preuve les remontées d'informations des appareils numériques vers des sociétés privées (et/ou gouvernement) et la capacité de certains services de police et de sécurité à déverrouiller un téléphone. En tout cas le système le moins couteux et le plus adéquat ne fera jamais parti de l'équation en Europe, on préfère monter de grosses usines à gaz opaques et couteuses pour les contribuables.

Les utilisateurs sont-ils suffisamment informés des risques liés à la confidentialité et à la sécurité des systèmes qu’ils utilisent ?
Absolument pas, les organismes de formation non plus pour preuve, lors d'une formation Messagerie, l'organisme comme le client ne voulait pas du chapitre sécurité et hygiène d'utilisation.

A travers cette déclaration d'Europol on va bien se profiler le spectre du Big Brother européiste. On veut avoir un moyen de lecture pour des raisons louables et quand c'est acté c'est la dérive. On étend aux complotistes, antivax, survivalistes, puis opposants politiques, syndicalistes, journalistes, contribuables, pour finir par monsieur tout-le-monde.
Les fichés S ne sont pas tous djihadistes et pas tous terroristes (cf l'affaire de Tarnac - qui pour l'anecdote ; 3 d'entre-eux étaient jugés pour "refus de remettre une convention secrète de déchiffrement d'un moyen de cryptologie").
8  0 
Avatar de
https://www.developpez.com
Le 28/10/2024 à 23:58
La création d'image interdite via ne pourra jamais être empéchée, que cela concerne les pedos ou le terros.
Du moment où un IA connait des notions similaire ou proche, les mesures de sécurité seront toujours contournable.

Mon point de vue c'est qu'on pousse à nous inciter à accepter toujours plus de flicage sous n'importe quel prétexte, mais pourquoi ? Une finalité sans doute inavoué de nos dirigeants ?

Enfin je rappel que n'importe qui avec un crayon et une feuille peut potentiellement faire quelque chose d'interdit, idem avec un simple logiciel.
Doit-on mettre des numéros d'immatriculation sur les feuilles et les crayons ? Doit-on intégrer des logiciels espions dans tout nos machines ? Faut-il sacrifier sa vie privé ? Non !
Pouvoir faire quelque chose d'illégal, ne signifie pas que la personne le fait : Ce n'est jamais une excuse pour instaurer une surveillance de masse !
8  1 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 21/01/2025 à 10:54
Jules : merci de laisser ton obsession pour Trump de côté 5 minutes.
Quel est le rapport avec le sujet ?

À qui tu t'adresses ?
"votre haine de Trump et des riches va vous faire aimer", "Vous voyez pas que c'est encore une énorme arnaque", "vous pensez que leurs trucs", "vous êtes les premiers à crier au loup", "vous êtes contents".
Si t'as un interlocuteur particulier, envoie lui un MP.
Si t'as pas d'interlocuteur particulier, faut se détendre, prendre un peu de recul arrêter de se sentir persécuté : t'es en train de faire un monologue.

Ça fait quelques temps que les interventions sont de plus en plus tendues sur le forum. C'est sans doute le reflet de notre belle société.
Moi j'veux bien qu'on continue à échanger, à se friter un peu même, c'est rigolo quand y'a du répondant. Mais les réactions hyper partisanes qui sortent de nulle part on peut peut-être s'en passer (c'est valable pour tous les bords, pas juste pour toi).
8  2 
Avatar de forthx
Membre éprouvé https://www.developpez.com
Le 21/01/2025 à 11:48
techniquement, l'interdiction va toucher tout le monde sauf les criminels: on trouvera (on trouve déjà) des solution spécialisé pour ces criminels qui, compte tenu des activités potentiel a cacher, se contrefichent d'une tel interdiction.
Le seul cas de figure serait que la peine encourue soit plus importante que la peine que tout autre crime qui pourrai être caché.
Et ca en considérant qu'il est impossible de cacher le fait de cacher un message alors ça pourrai éventuellement avoir du sens.

Mais comme ce n'est pas le cas, pour les deux hypothèses, ca ne touchera que les communications du communs des mortels et éventuellement de la petite criminalité mal organisée.
6  0 
Avatar de pascaldm
Membre actif https://www.developpez.com
Le 25/01/2025 à 18:49
La grande criminalité (narco trafique, terrorisme, fraude financière, mafias, etc.) utilise déjà des messageries spécialisées disponibles sur des marchés fermés pour lesquels il faut être parrainé pour y entrer. L'exemple des messageries EncroChat et Ghost est très significatif. Ils ne s'agit pas de messagerie grand public. Les grands criminels utilisent également de la sténographie et ce n'est pas récent.

Va-t-on voir émerger une interdiction des contenus pouvant porter des messages sténographiés (vidéos, image, audio ou document) ?

Des criminels de moindre envergure peuvent bien sûr utiliser des clef PGP ou S/MIME afin d'empêcher tout enquêteur de lire leurs échanges.

Introduire une faiblesse dans un produit cryptographique est une idée stupide de personnes ignorantes. Cette faiblesse sera tôt ou tard exploitée par les services de renseignements, les cybercriminels et les chercheurs en cybersécurité. Ces produits communiquent exclusivement sur l'Internet public. Ce n'est pas comparable avec le système légal d'interception de la téléphonie traditionnelle (filaire ou cellulaire) qui concerne les communications téléphoniques sur les réseaux d'opérateurs qui sont véhiculés en clair sauf pour la partie radio.
6  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 10:57
Citation Envoyé par Fagus Voir le message
Merci à la justice d'utiliser ses ressources pour lutter contre des images générée de pédophilie. Les clients seront obligés de se rabattre sur des images réelles.

Ceci est un commentaire provocateur, mais l'IA générative de pornographie est-elle vraiment un problème ?

Ya un article Le passage à l’acte pédophile et les enjeux psychopathologiques du téléchargement : un virtuel protecteur ? la réponse serait : ça dépend des gens... on est que moyennement avancé.

Mais globalement peut être qu'on pourrait passer d'un modèle axé sur le soin plus que la répression. Déjà les pédophiles ne seraient pas obligés de se cacher, on les aurait dans le viseur pour les empêcher de fauter, et si c'est incurable, ça me choquerait pas qu'ils s’adonnent sur des images virtuelles plutôt que sur des commandes d'images réelles...
pour moi le plus important c'est de détruire les réseaux de traffics d'enfants, a partir de la, fantasmer dans sa tête sur des enfants, les dessinés, en faire des hentai ou les généré par ia, ca reste pas très grave et limite temps que ca reste secret..., on ne peut empêcher une femme ou un homme de rêver d'un enfant a poile la nuit.

c'est une trouble mental c'est sur, mais tant que ca reste de la consommation de contenue factice.

il y'a des catégories de porno sur des cadavres ou sur la torture ou sur le meurtre pendant l'acte, ces vidéos sont simulé avec des acteurs et sont légales. Pourtant tuer quelqu'un est illégale.
Il y'a des films d'Hollywood d'ailleurs ou il y'a des scenes de meurtre pendant l'acte sexuel.

Es ce que fantasmer d'enfant a poile est plus grave que de fantasmer de tuer quelqu'un pendant l'acte ou de se taper sa grand mere dans la tombe ?
ca reste une zone d'ombre pénalement, car les vidéos d'actrices maquillé jeune et en costume de collégienne de 15ans, c'est pas ca qui manque sur l'internet légale.
5  0 
Avatar de yocoy22415
Futur Membre du Club https://www.developpez.com
Le 20/11/2024 à 17:02
Aussi choqué que de lire qu'un directeur apprenant que du (quasi) porno infantile IA se diffuse dans son établissement ne lève pas le doigt pour agir contre.
Malheureusement, même en France ce genre de chose peut arriver.
Il y a de ça 3 ans, des confrères professeurs, niveau collège,
me racontait avoir pris connaissances d'affaire de chantage et de pornographie, infantile entre collégien,
sur un réseau (Snapchat il me semble).
Le directeur n'a pas souhaité intervenir.
Pire, lorsque mes confrères ont été alerté les autorités, ont leurs que rien n'était possible
tant qu'il n'y a pas un des parents des victimes n'ont pas été déposé une plainte.
5  0