En Espagne, plus de 20 % du personnel de CCC Barcelona Digital Services - appartenant à Telsus, la société que Meta a engagée pour vérifier le contenu de Facebook et d'Instagram, sont en congé maladie en raison de traumatismes psychologiques, a révélé Euronews.
Les affaires judiciaires concernant le personnel qui a travaillé comme modérateur de contenu se multiplient, les ex-employés intentant des procès pour traumatisme psychologique.
"Je n'ai pas réalisé à quel point cela m'avait affecté. Ce n'est que plus tard que j'ai réalisé que j'étais dans un sale état, que j'étais très stressé. Je n'arrivais pas à dormir et je devenais très agressif. Si quelqu'un parlait de mon travail, je pleurais après", a déclaré M. Gray à Euronews.
Une enquête d'Euronews sur cette affaire a révélé des faits troublants. Les avocats qui ont parlé à l'organisation de presse ont décrit des vidéos de chiens bouillis vivants, de personnes torturées et une vidéo trop crue pour être décrite, impliquant le meurtre d'un enfant.
"J'ai rempli des questionnaires disant que je me sentais débordé au travail. Mais il a fallu des années pour obtenir un rendez-vous avec quelqu'un", a déclaré M. Gray.
Un avocat, Francesc Feliu, a déclaré à Euronews que l'exposition à des meurtres graphiques détruisait la vie des employés.
"Outre le contenu absolument inhumain, il y a beaucoup de bruit, de cris et de sang", a déclaré M. Feliu. Cela entraîne de graves problèmes de santé mentale, tels que le stress post-traumatique, les troubles obsessionnels compulsifs et la dépression.
"Nous parlons de personnes qui étaient en bonne santé et qui, tout à coup, voient apparaître ces troubles mentaux. Certains de ces travailleurs ont tenté de se suicider."
"Ils produiraient des dizaines et des dizaines de personnes relativement jeunes qui souffrent de troubles mentaux. C'est extrêmement grave."
"Ce genre de contenu vous marque à vie. Nous ne sommes pas des machines ou des ordinateurs dépourvus de sentiments."
"En regardant une vidéo, beaucoup de ces personnes s'effondraient, elles ne pouvaient plus continuer."
"Le psychologue les écoutait et leur disait que ce qu'ils faisaient était extrêmement important pour la société, qu'ils devaient imaginer que ce qu'ils voyaient n'était pas réel mais un film, et qu'ils devaient retourner au travail", a ajouté M. Feliu.
Facebook a répondu à cette question par une déclaration à Euronews : "Nous prenons au sérieux le soutien des réviseurs de contenu et demandons à toutes les entreprises avec lesquelles nous travaillons de fournir un soutien sur site 24/7 par des praticiens formés."
Facebook affirme qu'il existe des "solutions techniques pour limiter autant que possible l'exposition au matériel graphique".
"Les personnes qui examinent le contenu sur Facebook et Instagram peuvent ajuster l'outil d'examen du contenu pour que le contenu graphique apparaisse complètement flou, en noir et blanc ou sans son."
Cependant, Euronews rapporte que certains anciens modérateurs de contenu ont peur de sortir dans la rue, une demi-décennie après avoir quitté leur poste.
M. Gray a publié un livre sur le sujet, intitulé The Moderator.
"Je suis sorti depuis quelques années et je travaille maintenant avec des gens. Un contact face à face avec de vraies personnes", a-t-il déclaré lors d'une interview radiophonique sur RTÉ l'année dernière.
Source : Euronews
Et vous ?
Quelle lecture faites-vous de cette situation ?
Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?
Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?
Voir aussi
Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture, leur action en justice pourrait avoir des répercussions dans le monde entier
Une ex-modératrice de Facebook porte plainte pour stress post-traumatique, après avoir été exposée à des contenus choquants
Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale