IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les modérateurs de contenu de Facebook au Kenya qualifient leur travail de torture
Leur action en justice pourrait avoir des répercussions dans le monde entier

Le , par Nancy Rey

1PARTAGES

8  0 
Au bord des larmes, Nathan Nkunzimana se souvient d'avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée. Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à regarder des horreurs pour que le monde n'ait pas à le faire. Certains collègues accablés criaient ou pleuraient, dit-il.


Aujourd'hui, Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison de conditions de travail qui pourraient avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier. Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.

Le groupe était employé au centre de modération de contenu externalisé du géant des médias sociaux à Nairobi, la capitale du Kenya, où les travailleurs filtrent les messages, les vidéos, les messages et d'autres contenus provenant d'utilisateurs de toute l'Afrique, en supprimant tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions d'utilisation.

Les modérateurs, originaires de plusieurs pays africains, cherchent à obtenir un fonds d'indemnisation de 1,6 milliard de dollars après avoir dénoncé de mauvaises conditions de travail, notamment un soutien insuffisant en matière de santé mentale et une faible rémunération. Au début de l'année, ils ont été licenciés par Sama, qui a abandonné la modération de contenu. Ils affirment que les entreprises ne tiennent pas compte d'une décision de justice ordonnant la prolongation de leurs contrats jusqu'à ce que l'affaire soit résolue.


Facebook et Sama ont défendu leurs pratiques en matière d'emploi

Sans certitude quant à la durée de l'affaire, les modérateurs ont exprimé leur désespoir alors que l'argent et les permis de travail viennent à manquer et qu'ils se débattent avec les images traumatisantes qui les hantent.

« Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à se demander si c'est normal d'être ici ». Nkunzimana, père de trois enfants originaires du Burundi, a déclaré à l'Associated Press à Nairobi.

Selon ce jeune homme de 33 ans, la modération des contenus est comparable à des "soldats" qui prennent une balle pour les utilisateurs de Facebook, les employés surveillant les contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles et veillant à ce qu'ils soient supprimés. Pour Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des « héros pour la communauté ».

Mais lorsque l'exposition à des contenus alarmants a ravivé les traumatismes passés de certains qui, comme lui, avaient fui la violence politique ou ethnique dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret. On leur a demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.

Après son service, Nkuzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail. Ces jours-ci, il s'enferme dans sa chambre pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne peuvent probablement plus payer les frais de scolarité. Le salaire des modérateurs de contenu était de 429 dollars par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.

Le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour s'assurer que des conseils professionnels post-traumatiques étaient proposés aux modérateurs dans son bureau de Nairobi, a déclaré Nkuzimana. Il a ajouté que les conseillers n'étaient pas suffisamment formés pour faire face à ce que ses collègues vivaient. Aujourd'hui, en l'absence de soins de santé mentale, il se plonge dans l'église.

Meta, la société mère de Facebook, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.

Dans un courriel adressé à l'AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,90 dollar par jour)" avant d'être embauchés.

Sama a déclaré que tous les employés avaient un accès illimité à des conseils individuels « sans crainte de répercussions ». L'entrepreneur a également qualifié de « déroutante » une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'une décision ultérieure suspendant cette décision signifiait qu'elle n'était pas entrée en vigueur.

Selon Sarah Roberts, experte en modération de contenu à l'université de Californie à Los Angeles, ce type de travail peut être « incroyablement préjudiciable sur le plan psychologique », mais les demandeurs d'emploi des pays à faible revenu pourraient prendre le risque en échange d'un emploi de bureau dans l'industrie technologique.

Dans des pays comme le Kenya, où la main-d'œuvre bon marché est abondante, l'externalisation d'un travail aussi sensible est « l'histoire d'une industrie qui exploite les inégalités économiques mondiales à son avantage, qui fait du mal et qui n'assume ensuite aucune responsabilité parce que les entreprises peuvent dire : "Eh bien, nous n'avons jamais employé untel ou untel, c'était, vous savez, la tierce partie" », a-t-elle déclaré.

En outre, les soins de santé mentale fournis peuvent ne pas être « la crème de la crème » et des inquiétudes ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'infographie à l'Université d'Amsterdam.

En outre, les soins de santé mentale fournis peuvent ne pas être "la crème de la crème" et des préoccupations ont été soulevées quant à la confidentialité de la thérapie, a déclaré Roberts, professeur agrégé d'études de l'information.

La différence dans l'affaire du Kenya, a-t-elle ajouté, est que les modérateurs s'organisent et s'opposent à leurs conditions, ce qui crée une visibilité inhabituelle. La tactique habituelle dans ce genre d'affaires aux États-Unis est le règlement à l'amiable, mais « si des affaires sont portées devant les tribunaux dans d'autres pays, il ne sera peut-être pas aussi facile pour les entreprises d'agir de la sorte », a-t-elle ajouté. Facebook a investi dans des centres de modération dans le monde entier après avoir été accusé de laisser circuler des discours haineux dans des pays comme l'Éthiopie et le Myanmar, où les conflits faisaient des milliers de victimes et où des contenus préjudiciables étaient publiés dans diverses langues locales.

Recherchés pour leur maîtrise de diverses langues africaines, les modérateurs de contenu engagés par Sama au Kenya se sont rapidement retrouvés face à des contenus graphiques qui leur étaient douloureusement proches.

Les deux années pendant lesquelles Fasica Gebrekidan a travaillé comme modératrice ont coïncidé avec la guerre dans la région du Tigré, au nord de l'Éthiopie, où des centaines de milliers de personnes ont été tuées et où de nombreux Tigréens, comme elle, ne savaient pas grand-chose sur le sort de leurs proches.

Souffrant déjà d'avoir dû fuir le conflit, cette jeune femme de 28 ans a passé sa journée de travail à regarder des vidéos « horribles » et d'autres contenus liés en grande partie à la guerre, y compris des viols. Pour les vidéos, elle devait regarder les 50 premières secondes et les 50 dernières pour décider si elles devaient être retirées. Le sentiment de gratitude qu'elle avait éprouvé en décrochant le poste a rapidement disparu. « Vous fuyez la guerre, puis vous devez la voir. Ce n'était qu'une torture pour nous », a déclaré Fasica Gebrekidan. Elle n'a plus de revenus ni de domicile fixe. Elle a déclaré qu'elle chercherait de nouvelles opportunités si seulement elle pouvait se sentir à nouveau normale. Ancienne journaliste, elle ne peut plus se résoudre à écrire, même pour évacuer ses émotions.

Fasica craint que « cette saleté » ne reste à jamais dans sa tête. Pendant qu'elle parlait à l'AP, elle n'a pas quitté des yeux un tableau situé de l'autre côté du café, d'un rouge profond, représentant ce qui semble être un homme en détresse. Cela l'a dérangée. Fasica reproche à Facebook l'absence de soins de santé mentale et de rémunération appropriés et accuse l'entrepreneur local de l'avoir utilisée et de l'avoir laissée partir. « Facebook devrait savoir ce qui se passe. Ils devraient se préoccuper de nous », dit-elle. Le sort de la plainte des modérateurs est entre les mains du tribunal kenyan, dont la prochaine audience aura lieu le 10 juillet. L'incertitude est frustrante, selon Fasica. Certains modérateurs abandonnent et retournent dans leur pays d'origine, mais ce n'est pas encore une option pour elle.

Source : Procédure judiciaire au Kenya

Et vous ?

Quel commentaire faites-vous de la situation ?

Voir aussi :

Facebook affirme qu'il ne lit pas les messages WhatsApp, mais une enquête révèle qu'il le fait en réalité, des millions de messages sont examinés à la fois par des modérateurs humains et par l'IA

Les travailleurs africains de ChatGPT, TikTok et Facebook votent en faveur de la syndicalisation, l'initiative vise à lutter contre le manque de soins de santé mentale et le travail précaire

Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

Meta, la société mère de Facebook, licencie 60 personnes «*au hasard*» à l'aide d'un algorithme, Xsolla, une société dans l'industrie du jeu, licencie 150 employés également à l'aide d'un algorithme

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 04/07/2023 à 8:01
Citation Envoyé par Anselme45 Voir le message
PS: C'est de l'humour noir équivalent à un rire jaune... Diantre, mon commentaire va être fustigé par les wokistes de tout poils, mais attention "synthétiques" les poils pour ne pas froisser les défenseurs des animaux... euh non!, je peux pas écrire non plus "synthétiques", je vais froisser les écolo qui dénoncent la pollution plastique de mers
Arrete ta parano, on te trouves juste un peu con c'est tout.
Et plus tu en rajoutes moins on t'en veux.
Tu sais on a tous un tonton reac qu'on doit supporter pendant des heures aux réunions de famille, c'est pas la lecture de quelques seconde d'un message provocateur qui va nous faire partir en couille.
Détends toi, touche de l'herbe et arrete de penser à nous, merci.
3  0 
Avatar de maxtal
Membre actif https://www.developpez.com
Le 03/07/2023 à 9:13
Quelle horreur, merci à eux.
J'espère, et je pense que c'est envisageable, qu'on va vite trouver comment mettre l'IA à profit pour s'occuper d'identifier et supprimer ce genre de contenu.
C'est pas comme si, malheureusement, on manquait de matière pour en entrainer une, non ?
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/10/2023 à 8:19
Citation Envoyé par Anthony Voir le message
Quelle lecture faites-vous de cette situation ?
Je trouve d'un cynisme crasse que la modération graphique semble être essentiellement faites par des personnes alors que pour ce qui est du texte l'humain a été retiré depuis longtemps.
Les bots devraient être capable de trier ces vidéos et qu'elles ne passent en revue qu'en cas de doute ou en cas de réclamation.
Citation Envoyé par Anthony Voir le message
Selon vous, les plateformes de médias sociaux comme Facebook ont-elles la responsabilité morale de veiller au bien-être mental de leurs modérateurs de contenu, compte tenu des contenus traumatisants auxquels ils sont exposés ?
Absolument, bon nombre d'industries sont en partie responsables de s'assurer que leurs sous-traitants respectent les règles.
Bien sûr, les sous-traitants sont capables de contourner ça et ce n'est qu'une solution partielle mais ça diminue largement le risque et ça ouvre la porte aux audits/enquetes judiciaires ou journalistiques etc.
J'ai aussi envie de poser la question de ce qui est fait de ce contenu, les faits décrits me semblent (je ne suis pas juriste) être des crimes, n'est pas un moyen de s'attaquer à ce que notre gouvernmenement prétend combattre en nous espionnant tous?
Citation Envoyé par Anthony Voir le message
Quel est votre point de vue sur l'efficacité des solutions proposées par Facebook, telles que le floutage des contenus graphiques ou la fourniture d'une assistance sur place, pour remédier au traumatisme psychologique subi par les modérateurs de contenu ?
Les moyens techniques de réduire la violence de vidéos (floutage, couper le son etc) sont probablement pertinents mais on demande probablement aux personnes d'avoir un rythme élevé et on ne leur donne probablement pas le temps de visionner les vidéos plusieurs fois en commençant par le filtrage maximal. Donc c'est de l'hypocrisie.
Concernant l'assistance sur place, c'est un peu pareil, les gens sont mis sous pression, aller voir le psy c'est perdre en "productivité" et des que le manager sait que tu y es passé le licenciement se rapproche. Et quand on lit les réponses des psy c'est un pur scandale, ces personnes sont elles vraiment diplomées ou sont elles dans la même situation que les personnes qui viennent les voir : elles ont le seul boulot qu'elles ont trouvé et elles ont peur de le perdre?

Facebook n'en a rien à faire de ces modérateurs, ce sont des consommables à exploiter jusqu'à la fin. Ils pensent probablement que c'est un mal nécessaire et donc qu'il faut faire avec.
Je trouve que l'idée du "vis ma vie" a quelque chose de ridicule mais dans certaines situations c'est peut être efficace.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/07/2023 à 13:41
Le boulot de mer*e au Kenya, les bénéfices astronomiques à la Silicon Valley!

Que voilà une globalisation économique bien pensée!

PS: C'est de l'humour noir équivalent à un rire jaune... Diantre, mon commentaire va être fustigé par les wokistes de tout poils, mais attention "synthétiques" les poils pour ne pas froisser les défenseurs des animaux... euh non!, je peux pas écrire non plus "synthétiques", je vais froisser les écolo qui dénoncent la pollution plastique de mers
1  2