Les modérateurs du Kenya et d'autres pays africains ont été chargés de 2019 à 2023 de vérifier les publications émanant d'Afrique et dans leurs propres langues, mais ont été payés huit fois moins que leurs homologues aux États-Unis, selon les documents de réclamation.
Le rôle des modérateurs de contenu
Les modérateurs de contenu jouent un rôle crucial dans l'écosystème des réseaux sociaux. Ils sont chargés d'examiner et de supprimer les contenus violents, haineux, pornographiques ou autrement inappropriés pour maintenir un environnement sûr sur les plateformes. Cependant, ce travail les expose souvent à des images et vidéos extrêmement perturbantes, comme des scènes de torture, de meurtres ou d’abus, visionnées de manière répétée.
Dans le cas présent, ces modérateurs étaient employés par Sama, une société de sous-traitance basée au Kenya et travaillant pour Meta. Bien que cette tâche soit essentielle, les plaignants affirment que leurs conditions de travail étaient marquées par un manque de soutien psychologique et des pressions insoutenables pour respecter des quotas de modération.
La situation
Plus de 140 modérateurs de contenu de Facebook ont été diagnostiqués comme souffrant d'un grave syndrome de stress post-traumatique causé par l'exposition à des contenus extrêmes de médias sociaux, notamment des meurtres, des suicides, des abus sexuels sur des enfants et des actes de terrorisme.
Les modérateurs travaillaient des journées de huit à dix heures dans un établissement au Kenya pour une société sous contrat avec l'entreprise de médias sociaux. Le Dr Ian Kanyanya, responsable des services de santé mentale à l'hôpital national Kenyatta de Nairobi, a constaté qu'ils souffraient de stress post-traumatique, de troubles anxieux généralisés (TAG) et de troubles dépressifs majeurs (TDM).
Ces diagnostics de masse ont été établis dans le cadre d'une action en justice intentée contre Meta, la société mère de Facebook, et Samasource Kenya, une société d'externalisation qui assurait la modération des contenus pour Meta en faisant appel à des travailleurs originaires de toute l'Afrique.
Les images et les vidéos, notamment de nécrophilie, de bestialité et d'automutilation, ont poussé certains modérateurs à s'évanouir, à vomir, à crier et à s'enfuir de leur bureau, selon les documents déposés.
Cette affaire met en lumière le coût humain de l'explosion de l'utilisation des médias sociaux au cours des dernières années, qui a nécessité de plus en plus de modération, souvent dans certaines des régions les plus pauvres du monde, pour protéger les utilisateurs des pires contenus que certaines personnes publient.
Au moins 40 des modérateurs concernés par l'affaire consommaient de l'alcool, des drogues, notamment du cannabis, de la cocaïne et des amphétamines, ainsi que des médicaments tels que des somnifères. Certains ont fait état de l'échec de leur mariage et de l'effondrement de leur désir d'intimité sexuelle, ainsi que de la perte de liens avec leur famille. Certains, dont le travail consistait à retirer des vidéos téléchargées par des groupes terroristes et rebelles, craignaient d'être surveillés et pris pour cible, et d'être chassés et tués s'ils rentraient chez eux.
Un flou maintenu avant la prise de fonction
Lorsque James Irungu a accepté un nouveau poste au sein de l'entreprise de sous-traitance technologique Samasource, son responsable ne lui a fourni que peu de détails avant le début de sa formation. Mais le poste était très recherché et lui permettrait de presque doubler son salaire, qui atteindrait 250 livres sterling par mois. De plus, il lui offrait la possibilité de quitter Kibera, le vaste bidonville situé à la périphérie de Nairobi où il vivait avec sa jeune famille.
« Je pensais que j'étais l'un des plus chanceux », a déclaré ce jeune homme de 26 ans. Mais il s'est retrouvé à parcourir des tas de documents violents et sexuellement explicites, notamment des accidents macabres, des suicides, des décapitations et des sévices infligés à des enfants.
« Je me souviens d'un jour où je me suis connecté et où j'ai vu un enfant au ventre déchiré, souffrant mais pas mort », a déclaré le ressortissant kenyan. C'est en voyant du matériel d'exploitation d'enfants « que j'ai vraiment compris qu'il s'agissait de quelque chose de différent ».
Il avait été engagé par Samasource pour modérer le contenu de Facebook, en éliminant les messages les plus toxiques. Certaines des images les plus tourmentantes sont restées gravées dans son esprit, le réveillant parfois en sueurs nocturnes. Craignant que le fait de s'ouvrir sur son travail ne suscite de la gêne, des inquiétudes ou des jugements de la part des autres, il a gardé cela pour lui.
Exaspérée par ses « cachotteries », sa femme s'est éloignée de lui. Irungu s'est résigné à ce qu'ils s'éloignent l'un de l'autre, convaincu qu'il la protégeait, et il a gardé son emploi pendant trois ans. Il regrette d'avoir continué.
« Je ne pense pas que ce travail convienne aux êtres humains », dit-il. « Il m'a vraiment isolé du monde réel parce que j'ai commencé à le voir comme un endroit très sombre ». Il a commencé à avoir peur de perdre sa fille de vue. « Lorsque je me demande si l'argent valait vraiment la peine de sacrifier ma santé mentale, la réponse est non ».
Les accusations portées contre Meta et Sama
Selon la plainte, les modérateurs ont subi des symptômes graves de trouble de stress post-traumatique (TSPT) en raison de leur exposition prolongée à des contenus extrêmes. Plusieurs d'entre eux auraient reçu des diagnostics confirmant ces troubles mentaux, attribués à leurs conditions de travail.
Les rapports médicaux déposés auprès du tribunal de l'emploi et des relations de travail de Nairobi brossent un tableau horrible de la vie professionnelle au sein de l'établissement sous-traité par Meta, où les travailleurs étaient nourris d'un flux constant d'images à vérifier dans un espace froid ressemblant à un entrepôt, sous des lumières vives et avec leur activité professionnelle surveillée à la minute près.
Près de 190 modérateurs ont déposé une plainte pour préjudice moral intentionnel, pratiques de travail déloyales, traite des êtres humains, esclavage moderne et licenciement illégal. Les 144 modérateurs examinés par Kanyanya se sont avérés souffrir de SSPT, de TAG et de TDM, avec des symptômes de SSPT sévères ou extrêmement sévères dans 81 % des cas, la plupart du temps au moins un an après leur départ.
Martha Dark, fondatrice et codirectrice exécutive de Foxglove, une organisation à but non lucratif basée au Royaume-Uni qui a soutenu l'action en justice, a déclaré :
« Les preuves sont indiscutables : la modération sur Facebook est un travail dangereux qui inflige un syndrome de stress post-traumatique à vie à presque toutes les personnes qui modèrent.
« Au Kenya, ce travail a traumatisé 100 % des centaines d'anciens modérateurs testés pour le SSPT... Dans n'importe quel autre secteur, si nous découvrions que 100 % des travailleurs de la sécurité sont atteints d'une maladie causée par leur travail, les responsables seraient contraints de démissionner et de faire face aux conséquences juridiques des violations massives des droits de la personne. C'est pourquoi Foxglove soutient ces courageux travailleurs dans leur quête de justice auprès des tribunaux ».
Selon les documents déposés dans l'affaire de Nairobi, Kanyanya a conclu que la cause principale des troubles mentaux des 144 personnes était leur travail en tant que modérateurs de contenu sur Facebook.
Un précédent juridique ?
Cette affaire pourrait créer un précédent juridique majeur. Les plaignants espèrent non seulement obtenir une compensation financière pour les dommages subis, mais aussi forcer Meta à repenser la manière dont elle gère la modération de contenu. Cela inclurait l’obligation d'offrir des services de soutien mental continus et d'améliorer les conditions de travail de ses employés.
En 2022, Meta avait déjà été poursuivie par un autre modérateur kenyan, Daniel Motaung, qui accusait Sama et Meta de pratiques de travail abusives, notamment des salaires insuffisants et des traumatismes psychologiques ignorés. Cette affaire avait suscité une attention mondiale, incitant Meta à promettre des améliorations, mais les critiques estiment que peu de changements concrets ont suivi. En avril 2023, un juge kényan a décidé que l'entreprise pouvait être poursuivie devant un tribunal local, après une plainte pour licenciement abusif contre Meta et Sama.
Les implications plus larges
Cette affaire met en lumière un problème systémique dans l’économie numérique : les plateformes technologiques externalisent souvent leurs tâches les plus pénibles vers des pays où les coûts de main-d’œuvre sont faibles et les réglementations laxistes. Cela leur permet de maintenir des marges élevées, mais au prix de graves violations des droits des travailleurs.
En outre, elle pose la question de la responsabilité morale et juridique des géants de la technologie envers les personnes qui assurent le fonctionnement de leurs plateformes. Alors que ces entreprises génèrent des milliards de dollars de revenus, leurs efforts pour protéger leurs employés les plus vulnérables semblent souvent insuffisants.
Conclusion
La plainte des modérateurs kenyans pourrait être un tournant dans la manière dont les entreprises technologiques abordent la gestion de leur main-d’œuvre externalisée. Si les tribunaux donnent raison aux plaignants, cela pourrait forcer Meta et d'autres entreprises à adopter des normes de travail plus strictes et à prendre davantage de responsabilités envers leurs employés. Au-delà du verdict, cette affaire appelle à une réflexion globale sur les coûts humains de l’économie numérique et sur la nécessité d’une régulation plus stricte des pratiques des géants technologiques.
Source : plainte, Nation
Et vous ?
Le salaire des modérateurs travaillant dans des pays en développement est-il en adéquation avec les responsabilités et les risques émotionnels qu’ils encourent ?
Meta est-elle la seule responsable, ou les sous-traitants comme Sama portent-ils une part équivalente de responsabilité ?
Quels mécanismes pourraient être mis en place pour obliger les entreprises comme Meta à améliorer les conditions de travail de leurs sous-traitants ?
Les utilisateurs de Facebook ont-ils également une responsabilité indirecte dans la création d’un environnement où ces contenus existent et doivent être modérés ?
Le travail de modérateur devrait-il être classifié comme une activité à haut risque psychologique, au même titre que d’autres métiers comme les forces de l’ordre ou les pompiers ?
Que devrait inclure un programme de soutien psychologique efficace pour ces travailleurs ?
La technologie (comme l’IA) pourrait-elle remplacer entièrement les modérateurs humains, ou leur rôle restera-t-il essentiel malgré les avancées ?