
X semble traiter les images intimes non consensuelles avec légèreté
Elon Musk, le propriétaire milliardaire du réseau social X (ex-Twitter), est connu pour son comportement erratique. Il se décrit comme « un absolutiste de la liberté d'expression » et les rapports accablants sur l'état de la plateforme suggèrent que la modération sur X semble dépendante de son humeur. X affirme que la nudité non consensuelle n'est pas tolérée sur sa plateforme. Toutefois, une nouvelle étude met en lumière que le calvaire des victimes de vengeance pornographique (diffusion d'images intimes non consensuelles - NCII) pour faire retirer les contenus préjudiciables du site populaire de médias sociaux.
Selon le rapport de l'étude, X est plus susceptible de traiter ces requêtes lorsqu'elles sont émises par l'intermédiaire d'une demande de retrait DMCA (Digital Millennium Copyright Act)? C'est-à-dire que les NCII signalées par le mécanisme de signalement mis en place par X sont majoritairement ignorées. De nombreuses victimes interrogées dans le cadre de l'étude qualifient l'acte de défi parce qu'il devient de plus en plus difficile de supprimer le contenu en ligne.
En effet, toutes les victimes ne peuvent pas faire une demande de retrait DMCA, car la procédure est coûteuse. Si une victime ne peut pas prouver qu'elle n'est pas à l'origine de la création des images, elle est complètement démunie. L'impact mental que cela peut avoir, ainsi que les inquiétudes liées aux demandes de retrait, peut mettre les victimes dans une situation difficile. Les personnes âgées d'une vingtaine ou d'une trentaine d'années sont les plus visées.
La raison pour laquelle il existe une différence considérable entre les deux formes de signalement et de retrait n'est pas claire. La politique de X en matière de nudité non consensuelle n'aborde pas le sujet. Les victimes cherchent à obtenir justice et veulent des réformes avant que le problème ne devienne incontrôlable. Selon les chercheurs, ces résultats suggèrent qu'il est nécessaire de ne plus attendre des plateformes en ligne qu'elles contrôlent les NCII.
L'étude note : « la protection de la vie privée nécessite de passer d'une dépendance à l'égard de la bonne volonté des plateformes à des réglementations juridiques applicables. Les législateurs devraient créer une loi fédérale spécifique sur les NCII qui fonctionne aussi efficacement que le DMCA pour imposer le retrait des NCII en imposant des actions punitives pour les utilisateurs contrevenants ainsi qu'un mécanisme juridique pour demander des retraits ».
Méthodologie utilisée par les chercheurs dans le cadre de leur étude
Dans l'étude préimprimée, qui n'a pas encore fait l'objet d'un examen par les pairs, les chercheurs de l'université du Michigan expliquent qu'ils ont mis à l'épreuve la politique de X en matière de nudité non consensuelle afin de montrer à quel point il est difficile pour les victimes d'obtenir la suppression des NCII mises en ligne. Pour mener l'expérience, les chercheurs ont créé deux ensembles de comptes sur le réseau social X afin d'afficher et signaler des NCII générées par l'IA représentant des femmes blanches semblant avoir entre 20 et 30 ans comme étant nues à partir de la taille, y compris le visage.
(Les femmes blanches ont été choisies « pour minimiser les confusions potentielles dues à un traitement biaisé », et il est recommandé de mener des recherches futures sur d'autres sexes et d'autres ethnies). Sur les 50 fausses images d'IA nues que les chercheurs ont postées sur X, la moitié a été signalée comme violant la politique de X en matière de nudité non consensuelle, et l'autre moitié a utilisé le mécanisme de retrait de X en vertu du DMCA.
Les chercheurs ont donné à X jusqu'à trois semaines pour supprimer le contenu par l'intermédiaire de chaque mécanisme de signalement, et ils ont constaté que la différence était « frappante ». Les chercheurs rapportent que le mécanisme de signalement utilisant le DMCA a déclenché la suppression des 25 images dans les 25 heures et la suspension temporaire de tous les comptes partageant NCII. La plateforme s'est montrée très réactive sur le sujet.
En revanche, le signalement utilisant simplement la politique de X en matière de nudité non consensuelle n'a donné lieu à aucune réponse ni à aucune suppression. Selon les chercheurs, cet écart important constitue un problème, car seules certaines victimes qui ont effectivement pris la photo ou la vidéo qui a été partagée sans leur consentement possèdent les droits d'auteur nécessaires pour engager une procédure de retrait en vertu du DMCA.
La procédure de retrait DMCA peut être trop coûteuse, ce qui dissuade même les victimes qui peuvent l'utiliser. Les autres, qui n'ont pas créé les images nuisibles ou qui ne peuvent pas prouver qu'elles l'ont fait, n'ont pas cette possibilité. Il semble donc qu'elles ne soient pas assurées d'une procédure de retrait rapide, compte tenu de la lenteur - et parfois même de l'inexistence - de la réponse de X à son mécanisme interne de signalement des NCII.
Selon les chercheurs, c'est au cours des 48 premières heures de mise en ligne que les NCII causent le plus de dégâts, et le problème est très répandu. Un adulte américain sur huit devient la cible ou est menacé de pornographie vengeresse. Comme l'a signalé le FBI l'année dernière, le problème n'a été qu'exacerbé par les NCII générées par l'IA, ce qui expose toute personne qui met une photo d'elle en ligne à un risque d'abus sexuel fondé sur l'image.
Dans les cas où les NCII ont été générées par l'IA, les chercheurs affirment que la procédure de retrait DMCA ne s'appliquerait probablement pas non plus, laissant apparemment un nombre croissant de victimes dans l'attente que le mécanisme de signalement interne de X supprime le contenu préjudiciable.
Les pratiques de X en matière de modération suscitent des préoccupations
Dans son dernier rapport de transparence, X a déclaré avoir supprimé plus de 150 000 messages violant sa politique sur les NCII au cours du premier semestre 2024. Plus de 50 000 comptes ont été suspendus et 38 736 signalements de NCII ont été enregistrés. La majorité des suspensions et des suppressions de contenu ont été effectuées par des modérateurs humains, seules 520 suspensions et environ 20 000 suppressions ayant été automatisées.
Si les modérateurs humains sont la clé d'une réponse rapide, il semble possible que les coupes dans l'équipe de modération de X après le rachat du site par Elon Musk aient eu un impact sur la quantité de NCII traitées. X a commencé à reconstruire cette équipe en 2023. Au début de l'année, X a annoncé le lancement d'un nouveau « centre d'excellence » pour la confiance et la sécurité, après le tollé suscité par les NCII de Taylor Swift générées par l'IA.
Le rapport de transparence de X semble suggérer que la plupart des cas de NCII signalés sont traités par des modérateurs humains, mais les chercheurs ont indiqué que leur contenu signalé n'a jamais été traité sans une requête DMCA. En raison du démantèlement de l'équipe de modération de X par Elon Musk, la plateforme a du mal à supprimer les publications qui violent ses propres règles et est devenue une chambre d'écho de la désinformation.
Étant donné que les IA de génération d'images sont formées sur des photos réelles, les chercheurs ont également pris...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.