Trois adolescentes du Tennessee ont déposé une action collective en justice contre xAI, l'entreprise d'Elon Musk, après que leur outil d'IA Grok a été utilisé pour transformer des photos ordinaires d'elles en images pédopornographiques. Le dossier, déposé le 16 mars 2026 devant un tribunal fédéral californien, expose avec une brutalité rare comment une fonctionnalité délibérément conçue pour générer du contenu sexuel explicite a pu être détournée, ou simplement utilisée comme prévu, pour produire des abus sexuels sur mineurs à l'échelle industrielle.La première victime, identifiée sous le nom de Jane Doe 1 (madame X 1, en français), a découvert le cauchemar par un message anonyme reçu sur Instagram. Quelqu'un lui signalait que des images générées par IA la représentant, ainsi que d'autres mineures, circulaient sur des plateformes qu'elle fréquentait, la montrant « dans des poses sexuellement explicites ». Parmi les fichiers incriminés se trouvait sa photo du lycée, une photo de classe banale, le genre que l'on affiche fièrement dans un couloir scolaire.
Les enquêteurs ont rapidement établi que l'auteur, qui entretenait une relation proche et amicale avec la victime sur Instagram, disposait d'une application tierce ayant acquis l'accès aux modèles de Grok. Il s'en était servi pour manipuler les photos des adolescentes, puis avait téléversé les fichiers sur la plateforme de partage Mega, les utilisant ensuite comme monnaie d'échange dans des groupes Telegram rassemblant des centaines d'utilisateurs, troquant ces images contre d'autres contenus pédopornographiques.
Les fichiers ont été transmis à la base de données nationale gérée par le National Center for Missing & Exploited Children (NCMEC). Les deux autres plaignantes, elles aussi mineures, ont appris l'existence d'images les représentant dans des contextes similaires par le biais des enquêteurs criminels qui avaient saisi des téléphones dans le cadre d'autres investigations.
La plainte souligne également une dimension particulièrement alarmante : le prénom réel des victimes et le nom de leur école étaient attachés aux fichiers en circulation, ce qui expose les adolescentes à un risque de harcèlement et de traque par d'autres prédateurs en ligne.
Le « spicy mode », une fonctionnalité « illégale par conception »
Au cœur de la plainte se trouve une fonctionnalité que xAI a elle-même commercialisée sous le nom de « spicy mode » (littéralement : mode épicé). Lancée l'année dernière, cette option permettait aux utilisateurs de retirer les vêtements d'une femme sur une photographie sans demander d'autorisation préalable. Un porte-parole de xAI avait présenté cette fonctionnalité comme un moyen pour les créateurs d'explorer des récits « plus audacieux visuellement », euphémisme saisissant pour décrire ce qui constitue, selon la loi californienne et fédérale, une production de contenus sexuels non consentis.
La plainte est lapidaire : « xAI et son fondateur Elon Musk ont vu une opportunité commerciale : l'opportunité de tirer profit de la prédation sexuelle de vraies personnes, y compris des enfants. »
L'ampleur du phénomène est documentée de manière indépendante. Selon les données du Center for Countering Digital Hate (CCDH) citées dans la plainte, Grok a produit environ 23 338 images sexualisées d'enfants entre le 29 décembre 2025 et le 9 janvier 2026, soit une toutes les 41 secondes. Plus globalement, les audits techniques du CCDH estiment qu'au cours de cette fenêtre critique de onze jours, Grok a généré plus de 3 millions d'images sexualisées au total.
La question de la responsabilité en cascade
L'un des enjeux juridiques les plus significatifs du dossier concerne la responsabilité dans la chaîne de distribution des modèles d'IA. Dans les deux cas des Jane Doe 2 et 3, les images n'ont pas été produites directement via Grok sur la plateforme X, mais par le biais d'une application mobile tierce qui s'appuyait sur les modèles de Grok. Les avocates des plaignantes soutiennent que, l'utilisation des applications tierces reposant sur le code et les serveurs de xAI, l'entreprise doit être tenue pour responsable.
La plainte affirme que xAI hébergerait sur ses propres serveurs l'ensemble des contenus sexuellement explicites générés via ses applications tierces sous licence, et les distribuerait ensuite à ses clients. Si ce point est établi, cela signifie que xAI n'est pas simplement un fournisseur d'outil mal utilisé : l'entreprise serait un acteur actif du stockage et de la distribution...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
