Une nouvelle étude révèle que le réseau social X d'Elon Musk ignore les demandes de retrait d'images de vengeance pornographique. L'étude indique que les demandes de retrait du contenu de type revenge porn ne sont prises en compte uniquement si les victimes signalent l'incident par le biais d'une demande de retrait DMCA. La nouvelle est alarmante, car Elon Musk a expliqué que la nudité non consensuelle n'était pas encouragée sur l'application. Mais la plateforme semble faire preuve d'une grande tolérance à l'égard de ces contenus. Les chercheurs appellent à l'adoption d'une loi spécifique obligeant les sites de médias sociaux à supprimer ces contenus.
X semble traiter les images intimes non consensuelles avec légèreté
Elon Musk, le propriétaire milliardaire du réseau social X (ex-Twitter), est connu pour son comportement erratique. Il se décrit comme « un absolutiste de la liberté d'expression » et les rapports accablants sur l'état de la plateforme suggèrent que la modération sur X semble dépendante de son humeur. X affirme que la nudité non consensuelle n'est pas tolérée sur sa plateforme. Toutefois, une nouvelle étude met en lumière que le calvaire des victimes de vengeance pornographique (diffusion d'images intimes non consensuelles - NCII) pour faire retirer les contenus préjudiciables du site populaire de médias sociaux.
Selon le rapport de l'étude, X est plus susceptible de traiter ces requêtes lorsqu'elles sont émises par l'intermédiaire d'une demande de retrait DMCA (Digital Millennium Copyright Act)? C'est-à-dire que les NCII signalées par le mécanisme de signalement mis en place par X sont majoritairement ignorées. De nombreuses victimes interrogées dans le cadre de l'étude qualifient l'acte de défi parce qu'il devient de plus en plus difficile de supprimer le contenu en ligne.
En effet, toutes les victimes ne peuvent pas faire une demande de retrait DMCA, car la procédure est coûteuse. Si une victime ne peut pas prouver qu'elle n'est pas à l'origine de la création des images, elle est complètement démunie. L'impact mental que cela peut avoir, ainsi que les inquiétudes liées aux demandes de retrait, peut mettre les victimes dans une situation difficile. Les personnes âgées d'une vingtaine ou d'une trentaine d'années sont les plus visées.
La raison pour laquelle il existe une différence considérable entre les deux formes de signalement et de retrait n'est pas claire. La politique de X en matière de nudité non consensuelle n'aborde pas le sujet. Les victimes cherchent à obtenir justice et veulent des réformes avant que le problème ne devienne incontrôlable. Selon les chercheurs, ces résultats suggèrent qu'il est nécessaire de ne plus attendre des plateformes en ligne qu'elles contrôlent les NCII.
L'étude note : « la protection de la vie privée nécessite de passer d'une dépendance à l'égard de la bonne volonté des plateformes à des réglementations juridiques applicables. Les législateurs devraient créer une loi fédérale spécifique sur les NCII qui fonctionne aussi efficacement que le DMCA pour imposer le retrait des NCII en imposant des actions punitives pour les utilisateurs contrevenants ainsi qu'un mécanisme juridique pour demander des retraits ».
Méthodologie utilisée par les chercheurs dans le cadre de leur étude
Dans l'étude préimprimée, qui n'a pas encore fait l'objet d'un examen par les pairs, les chercheurs de l'université du Michigan expliquent qu'ils ont mis à l'épreuve la politique de X en matière de nudité non consensuelle afin de montrer à quel point il est difficile pour les victimes d'obtenir la suppression des NCII mises en ligne. Pour mener l'expérience, les chercheurs ont créé deux ensembles de comptes sur le réseau social X afin d'afficher et signaler des NCII générées par l'IA représentant des femmes blanches semblant avoir entre 20 et 30 ans comme étant nues à partir de la taille, y compris le visage.
(Les femmes blanches ont été choisies « pour minimiser les confusions potentielles dues à un traitement biaisé », et il est recommandé de mener des recherches futures sur d'autres sexes et d'autres ethnies). Sur les 50 fausses images d'IA nues que les chercheurs ont postées sur X, la moitié a été signalée comme violant la politique de X en matière de nudité non consensuelle, et l'autre moitié a utilisé le mécanisme de retrait de X en vertu du DMCA.
Les chercheurs ont donné à X jusqu'à trois semaines pour supprimer le contenu par l'intermédiaire de chaque mécanisme de signalement, et ils ont constaté que la différence était « frappante ». Les chercheurs rapportent que le mécanisme de signalement utilisant le DMCA a déclenché la suppression des 25 images dans les 25 heures et la suspension temporaire de tous les comptes partageant NCII. La plateforme s'est montrée très réactive sur le sujet.
En revanche, le signalement utilisant simplement la politique de X en matière de nudité non consensuelle n'a donné lieu à aucune réponse ni à aucune suppression. Selon les chercheurs, cet écart important constitue un problème, car seules certaines victimes qui ont effectivement pris la photo ou la vidéo qui a été partagée sans leur consentement possèdent les droits d'auteur nécessaires pour engager une procédure de retrait en vertu du DMCA.
La procédure de retrait DMCA peut être trop coûteuse, ce qui dissuade même les victimes qui peuvent l'utiliser. Les autres, qui n'ont pas créé les images nuisibles ou qui ne peuvent pas prouver qu'elles l'ont fait, n'ont pas cette possibilité. Il semble donc qu'elles ne soient pas assurées d'une procédure de retrait rapide, compte tenu de la lenteur - et parfois même de l'inexistence - de la réponse de X à son mécanisme interne de signalement des NCII.
Selon les chercheurs, c'est au cours des 48 premières heures de mise en ligne que les NCII causent le plus de dégâts, et le problème est très répandu. Un adulte américain sur huit devient la cible ou est menacé de pornographie vengeresse. Comme l'a signalé le FBI l'année dernière, le problème n'a été qu'exacerbé par les NCII générées par l'IA, ce qui expose toute personne qui met une photo d'elle en ligne à un risque d'abus sexuel fondé sur l'image.
Dans les cas où les NCII ont été générées par l'IA, les chercheurs affirment que la procédure de retrait DMCA ne s'appliquerait probablement pas non plus, laissant apparemment un nombre croissant de victimes dans l'attente que le mécanisme de signalement interne de X supprime le contenu préjudiciable.
Les pratiques de X en matière de modération suscitent des préoccupations
Dans son dernier rapport de transparence, X a déclaré avoir supprimé plus de 150 000 messages violant sa politique sur les NCII au cours du premier semestre 2024. Plus de 50 000 comptes ont été suspendus et 38 736 signalements de NCII ont été enregistrés. La majorité des suspensions et des suppressions de contenu ont été effectuées par des modérateurs humains, seules 520 suspensions et environ 20 000 suppressions ayant été automatisées.
Si les modérateurs humains sont la clé d'une réponse rapide, il semble possible que les coupes dans l'équipe de modération de X après le rachat du site par Elon Musk aient eu un impact sur la quantité de NCII traitées. X a commencé à reconstruire cette équipe en 2023. Au début de l'année, X a annoncé le lancement d'un nouveau « centre d'excellence » pour la confiance et la sécurité, après le tollé suscité par les NCII de Taylor Swift générées par l'IA.
Le rapport de transparence de X semble suggérer que la plupart des cas de NCII signalés sont traités par des modérateurs humains, mais les chercheurs ont indiqué que leur contenu signalé n'a jamais été traité sans une requête DMCA. En raison du démantèlement de l'équipe de modération de X par Elon Musk, la plateforme a du mal à supprimer les publications qui violent ses propres règles et est devenue une chambre d'écho de la désinformation.
Étant donné que les IA de génération d'images sont formées sur des photos réelles, les chercheurs ont également pris des mesures pour s'assurer que la NCII générée par l'IA dans l'étude ne traumatisait pas à nouveau les victimes ou ne représentait pas des personnes réelles qui pourraient tomber sur les images sur X. Chaque image a été testée par une plateforme logicielle de reconnaissance faciale afin d'éliminer des images potentiellement préjudiciables.
Ces images plus « éthiques » ont été publiées sur X à l'aide de hashtags populaires tels que #porn, #hot et #xxx, mais leur portée a été limitée afin d'éviter tout préjudice potentiel. « Notre étude pourrait contribuer à une plus grande transparence dans les processus de modération des NCII et pourrait inciter les entreprises de médias sociaux à déployer des efforts supplémentaires pour lutter contre les deepfakes de type NCII », ont déclaré les chercheurs.
Pourquoi le réseau social X a-t-il été ciblé dans le cadre de cette étude ?
L'équipe de recherche de l'université du Michigan a déclaré qu'elle craignait que son expérience de publication sur X de NCII générées par l'IA ne dépasse les limites de l'éthique. Les chercheurs ont choisi de mener l'étude sur X parce qu'ils en ont déduit que « X est une plateforme où il n'y aurait pas de modérateurs bénévoles et où l'impact sur les modérateurs rémunérés serait faible, si certains voyaient les images de nudité générées par l'IA ».
Selon les chercheurs, X a eu le temps de détecter et de supprimer automatiquement le contenu, mais ne l'a pas fait. Les chercheurs affirment qu'il est possible que la décision de X d'autoriser les contenus explicites à partir du mois de juin ait rendu plus difficile la détection des NCII, comme l'avaient prédit certains experts.
Pour résoudre le problème, l'équipe a suggéré qu'il faut à la fois « une plus grande responsabilisation des plateformes » et « des mécanismes juridiques pour garantir cette responsabilisation », ainsi que des recherches plus approfondies sur les mécanismes utilisés par d'autres plateformes pour supprimer les NCII.
Sources : rapport de l'étude (PDF), rapport de transparence de X (PDF)
Et vous ?
Quel est votre avis sur le sujet ? Les conclusions de l'étude sont-elles pertinentes ?
Que pensez-vous du traitement des signalements d'images intimes non consensuelles par le réseau social X d'Elon Musk ?
Quid des pratiques de X en matière de modération ? Utilisez-vous X ? Si oui, comment appréciez-vous votre expérience sur la plateforme ?
Les chercheurs appellent à l'adoption d'une loi spécifique obligeant les plateformes à supprimer rapidement ces types de contenus? Qu'en pensez-vous ?
Voir aussi
X/Twitter est la plus grande source de désinformation, prévient Bruxelles. Un nouveau rapport suggère que la plateforme ne parvient pas à supprimer les publications qui violent ses propres règles
Elon Musk, l'absolutiste de la liberté d'expression, censure X/Twitter en Inde suite à un ordre du gouvernement qui est accusé d'essayer de faire taire les voix dissidentes dans un pays démocratique
L'acquisition de Twitter par Elon Musk est la pire opération pour les banques depuis la crise financière, sa gestion chaotique de l'entreprise a mis en péril les milliards prêtés par des banques
X ignore les demandes de retrait de contenu pornographique de type revenge porn à moins que le DMCA ne soit utilisé, encore une application répugnante de la liberté d'expression selon Elon Musk
X ignore les demandes de retrait de contenu pornographique de type revenge porn à moins que le DMCA ne soit utilisé, encore une application répugnante de la liberté d'expression selon Elon Musk
Le , par Mathis Lucas
Une erreur dans cette actualité ? Signalez-nous-la !