Il y a deux ans, des poursuites pour mort injustifiée ont été déposées contre la plateforme TikTok. À l'époque, la tendance virale sur l'application de médias sociaux était le "blackout challenge" : des vidéos dans lesquelles les participants tentent de s'étouffer jusqu'à perdre conscience. Plusieurs décès ont été constatés après avoir tenté d'y participer, notamment Lalani Erika Walton, 8 ans, Arriani Jaileen Arroyo, 9 ans, ou encore Nylah Anderson, 10 ans.
Les plaintes accusaient que TikTok "savait ou aurait dû savoir que ne pas prendre des mesures immédiates et importantes pour stopper la propagation du Blackout Challenge mortel entraînerait davantage de blessures et de décès, en particulier chez les enfants". Mais la société a nié que le blackout challenge soit une tendance TikTok, en pointant du doigt des cas pré-TikTok d'enfants mourant du "jeu d'étouffement" et en affirmant avoir bloqué le hashtag #BlackoutChallenge de son moteur de recherche.
Récemment, une cour d'appel américaine a décidé de relancer une action en justice intentée contre TikTok par la mère d'une fillette de 10 ans décédée après avoir participé au blackout challenge.
Alors qu'une loi fédérale protège généralement les entreprises de l'internet contre les poursuites liées aux contenus publiés par les utilisateurs, la troisième cour d'appel du circuit américain, basée à Philadelphie, a statué que la loi n'empêchait pas la mère de Nylah Anderson de faire valoir que l'algorithme de TikTok avait recommandé à sa fille de relever le défi.
La juge Patty Shwartz, qui s'est exprimée au nom d'un groupe de trois juges, a déclaré que l'article 230 de la loi de 1996 sur la décence des communications (Communications Decency Act) ne protégeait que les informations fournies par des tiers et non les recommandations faites par TikTok lui-même par le biais d'un algorithme sous-jacent à sa plateforme.
Elle a reconnu que cette décision s'écartait des décisions judiciaires antérieures de son tribunal et d'autres, selon lesquelles l'article 230 exonère une plateforme en ligne de toute responsabilité lorsqu'elle n'empêche pas les utilisateurs de transmettre des messages préjudiciables à d'autres personnes.
Toutefois, elle a déclaré que ce raisonnement n'était plus valable depuis un arrêt de la Cour suprême des États-Unis rendu en juillet sur la question de savoir si les lois des États visant à restreindre le pouvoir des plateformes de médias sociaux de limiter les contenus qu'elles jugent répréhensibles violaient leurs droits à la liberté d'expression.
Dans ces affaires, la Cour suprême a estimé que l'algorithme d'une plateforme reflétait des "jugements éditoriaux" sur la "compilation des discours de tiers qu'elle souhaite de la manière qu'elle souhaite". Selon Me. Shwartz, dans cette logique, la curation de contenu à l'aide d'algorithmes est un discours de l'entreprise elle-même, qui n'est pas protégé par l'article 230.
"TikTok fait des choix quant au contenu recommandé et promu auprès d'utilisateurs spécifiques et, ce faisant, s'engage dans son propre discours de première partie", a-t-elle écrit.
Cette récente décision a annulé la décision d'un juge d'un tribunal inférieur qui avait rejeté, sur la base de l'article 230, l'action intentée par Tawainna Anderson contre TikTok et sa société mère chinoise ByteDance. Elle a intenté une action en justice après que sa fille Nylah est décédée en 2021 après avoir tenté de relever le défi du black-out en utilisant une lanière de sac à main accrochée dans l'armoire de sa mère.
Sources : 3e Cour d'appel du circuit américain de Philadelphie, Décision de justice
Et vous ?
Pensez-vous que cette décision est crédible ou pertinente ?
Quel est votre avis sur cette affaire ?
Voir aussi :
L'algorithme de recommandation TikTok continuerait de pousser au suicide les enfants vulnérables. Le dernier suicide lié à TikTok révèle des problèmes majeurs liés à l'algorithme de l'application
Des experts en psychologie scientifique mettent en garde contre les dommages potentiels des médias sociaux sur les enfants en publiant un avis de santé sur l'utilisation des médias sociaux
30 % des enfants âgés de 5 à 7 ans utilisent TikTok malgré la politique de la plateforme qui interdit de s'inscrire avant l'âge de 13 ans, ce qui représente un danger pour leur santé mentale
Réseaux sociaux et santé mentale des adolescents : une épidémie mondiale de troubles mentaux, des statistiques inquiétantes dans l'ère numérique