Liberté d’expression ou régulation stricte ? Ce dilemme soulève un débat de fond : Faut-il privilégier la liberté d’expression, même si elle comporte des risques d’abus, ou mettre en place une régulation stricte qui pourrait limiter le discours public ?
Le 28 octobre 2022, un jour seulement après avoir acquis Twitter, Elon Musk a publié un message qui résume sa vision de son avenir : « L'oiseau est libre ».
La couleur bleue emblématique du réseau social a rapidement cédé la place au X noir (rappelant le dark web) lorsque X Corp, la société de Musk, en a pris le contrôle. Si Elon Musk a assuré que les personnes bannies de Twitter ne seront pas rétablies sans une « procédure claire », ce n'est pas tout à fait ce qui s'est passé : peu après, le milliardaire a annoncé le rétablissement de 62 000 comptes précédemment suspendus, dont (et c'est ce qui allait faire les gros titres) celui de Donald Trump, notamment après un sondage réalisé auprès de ses abonnés.
Le magnat de la technologie a clairement affiché son intention : transformer Twitter en une plateforme où la liberté d'expression serait proche de l'absolu. Ce faisant, il a vidé de sa substance les mécanismes de modération du site, destinés à réduire les discours haineux et à contrer l'épidémie de désinformation qui sévit sur la plateforme. Mis en place à l'instigation du Congrès américain, Musk a estimé qu'ils n'avaient pas leur place dans le nouveau monde de X.
Comme on pouvait s'y attendre, cette nouvelle orientation a suscité des réactions polarisées aux États-Unis. Certains craignent une montée de l'extrémisme, en particulier des mouvements suprémacistes, en raison de la diffusion et de la normalisation possible de contenus racistes et antisémites. Dans le même temps, d'autres ont salué la nouvelle « liberté d'expression », et ont même appelé à rétablir les comptes des leaders nationalistes blancs.
Un peu plus d'un an plus tard, Musk a retweeté son message original à l'occasion de l'anniversaire de sa prise de contrôle, en l'agrémentant du mot liberté. Quel est donc l'état actuel des comptes nationalistes blancs sur le réseau social, et quelles sont les implications prévisibles pour l'évolution de l'extrémisme dans le discours public ?
La modération en ligne et ses limites : États-Unis vs Union EuropéenneFreedom https://t.co/aIZXUJbhGc
— Elon Musk (@elonmusk) October 27, 2023
Aux États-Unis, la protection de la liberté d’expression inscrite dans le premier amendement limite l’action légale contre les discours haineux. Les plateformes comme X sont protégées par la Section 230 du Communications Decency Act, qui les dégage de toute responsabilité vis-à-vis des contenus publiés par leurs utilisateurs. Cette protection permet à X de tolérer un large éventail de discours, y compris ceux qui flirtent avec l’incitation à la haine.
En revanche, l’Union Européenne impose des normes plus strictes avec le Digital Services Act (DSA). Cette législation oblige les plateformes à modérer activement les contenus nuisibles et à rendre des comptes sur leurs actions de régulation. Dans ce cadre, X pourrait faire face à des sanctions si elle ne répond pas aux standards européens. Les divergences entre les approches américaine et européenne mettent en lumière la difficulté de créer un cadre juridique universel pour les plateformes mondiales.
Impacts sociétaux et critiques de la stratégie de Musk
La stratégie de Musk, visant à offrir une plateforme où « toutes les voix sont entendues », a été critiquée pour son laxisme, permettant aux suprémacistes blancs de se rassembler et de recruter. Certains experts soulignent que la réduction des équipes de modération et l’algorithme axé sur l’engagement favorisent la polarisation, attirant plus d’attention sur des discours extrémistes. En favorisant l’audience à tout prix, X semble prioriser le trafic au détriment de la sécurité de ses utilisateurs.
Les défenseurs de la liberté d’expression, cependant, soutiennent que Musk offre une alternative aux plateformes fortement modérées, et affirment que chacun doit avoir la possibilité de s’exprimer, même si les opinions exprimées sont impopulaires ou controversées. Ils estiment qu’une régulation trop stricte pourrait engendrer une censure excessive et restreindre le débat public.
Elon Musk : les discours haineux ne seront pas retirés de X à moins d'être illégaux
Don Lemon, l'ancien présentateur de CNN, a diffusé le premier épisode du Don Lemon Show sur YouTube et les plateformes de streaming de podcasts, avec une interview controversée de Musk. Le propriétaire du X a affronté ce que beaucoup ont décrit comme une « épreuve explosive » qui a fini par coûter à Lemon son contrat avec l'application. Mais cela n'a pas empêché l'ancien journaliste de CNN de publier l'interview sur YouTube.
La séquence vidéo montre que la discussion n'a pas été aussi cordiale qu'on l'aurait souhaité, Musk se fatiguant et s'énervant à plusieurs reprises lorsque des accusations ont été lancées contre lui.
Il y a même eu un moment dans la conversation où Lemon a parlé du sujet controversé des discours haineux sur l'application et de la façon dont ils ont continué à croître depuis qu'il a pris en charge Twitter. Mais Musk a rejeté les statistiques et a indiqué que les études qu'il avait lues prouvaient le contraire.
Lorsqu'on lui a demandé si une « meilleure modération du contenu » sur X permettrait à Musk d'éviter d'avoir à répondre à des questions sur son soutien apparent à la théorie du grand remplacement, une théorie du complot qui prétend qu'il existe un complot visant à diminuer l'influence des Blancs, Musk a répliqué en disant qu'il n'avait pas à répondre aux questions des journalistes et qu'il n'avait accepté cette interview que parce que l'émission de Lemon était diffusée sur X.
Lemon a également demandé à Musk s'il estimait qu'en tant que propriétaire de l'une des plus grandes plateformes de médias sociaux, il avait une quelconque responsabilité dans la modération de la plateforme. Musk a évité de répondre, soulignant plutôt que X dispose de notes communautaires pour lutter contre la désinformation.
Lorsque Lemon a déclaré que Musk avait récemment qualifié la modération de « ceinture de chasteté numérique », Musk a répondu qu'il ne voyait qu'une responsabilité de « respecter la loi » et d'expliquer pourquoi les choses sont affichées sur X en fonction de son algorithme. Il a également nié que les discours de haine aient augmenté sur la plateforme depuis qu'il en est le propriétaire.
Lemon a ensuite montré à Musk divers tweets antisémites qui restent sur X. « D'après votre propre politique de contenu, ces messages auraient dû être supprimés. Pourquoi ne l'ont-ils pas été ? », a demandé Lemon. Musk a répondu que les messages ne sont supprimés de X que « s'ils sont illégaux ». Il s'est défendu d'avoir encouragé les discours haineux, déclarant : « Si un contenu se trouve sur la plateforme, cela ne veut pas dire que nous l'encourageons ».
La suspension persistante des leaders nationalistes blancs
Le suprémacisme blanc est une idéologie raciste, fondée sur l'idée de la supériorité de ceux parmi les humains dont la peau est perçue comme blanche par les autres ou par eux-mêmes par rapport aux autres humains. Plus largement, il considère la civilisation occidentale comme dominante et supérieure aux autres.
X a procédé à une première vague de restaurations de comptes suspendus à partir de novembre 2022, dont des leaders nationalistes blancs suspendus de 2017 à 2021. Les vagues de suspensions (lorsque X s'appelait Twitter donc) ont commencé après le rassemblement « United the Right » de Charlottesville qui a entraîné la mort et se sont poursuivies jusqu'à l'assaut du Capitole américain.
Durant cette période, les comptes de personnalités connues comme David Duke, icône du Ku Klux Klan, ont été suspendus. La mesure a également touché des personnes moins médiatisées mais tout aussi importantes, comme Jared Taylor, fondateur du site suprémaciste blanc American Renaissance, et Greg Johnson, éditeur du magazine nationaliste blanc Counter-Currents.
Même avec l'arrivée de Musk, ces comptes et d'autres sont restés inaccessibles. Parce qu'ils promeuvent tous l'idée d'un État racial aux États-Unis basé sur une identité blanche homogène, leur contenu contredit les nouvelles règles de sécurité de X, qui interdisent les associations avec des entités violentes ou haineuses. D'autres comptes clés ont été désactivés par les équipes d'Elon Musk, comme celui du psychologue antisémite et nationaliste blanc Kevin MacDonald en avril 2023.
Si l'absence persistante de ces leaders prive un mouvement fragmenté de points de convergence idéologique, cela ne signifie pas que la plateforme soit exempte de racialisme antidémocratique. De nombreuses figures mineures déjà présentes sur Twitter ont réussi à passer outre les nouvelles règles de X et à s'imposer comme les nouvelles voix à suivre.
La plateforme a procédé à une deuxième vague de restaurations en janvier 2023, et bien qu'elle n'ait pas restauré les figures les plus en vue, des groupes proches du nationalisme blanc, tels que les Groypers de Nick Fuentes, ont tenté de se réimplanter.
Des tas de messages non filtrés qui célèbrent ouvertement le racisme, l'antisémitisme et le nazisme pur et simple sont facilement accessibles et peut-être même promus par les algorithmes du site.
Des règles de modération laxistes qui permettent aux comptes vérifiés glorifiant le nazisme de proliférer sur X
Un rapport de la NBC News a identifié plus d'une centaine de comptes X payants qui publie ou amplifie des contenus antisémites ou pro-nazis, souvent en violation apparente des règles du site. Ces comptes font notamment l'éloge de soldats nazis, partagent des symboles nazis et nient l'existence de l'Holocauste. Dans un cas spécifique observé en mars, plus de 5 300 comptes vérifiés et non vérifiés ont repartagé un message pro-nazi, et des dizaines d'autres messages populaires ont été repartagés des centaines de fois chacun.
Les règles de X interdisent de glorifier la violence. C'est une interdiction générale que X a parfois utilisée pour supprimer des contenus et des comptes pronazis. Les règles interdisent également de faire l'éloge d'entités violentes et précisent que la plateforme appliquera des étiquettes aux images haineuses telles que les croix gammées. Mais le rapport estime que X ne semble pas appliquer ces règles de manière cohérente. Le rapport indique qu'au moins 150 comptent d'abonnés X Premium et des milliers de comptes non payants ont publié ou amplifié des contenus pro-nazis sur X au cours des derniers mois.
Sources : interview d'Elon Musk (vidéo dans le texte), CCDH, X/Twitter, Commission européenne
Et vous ?
Trouvez-vous les rapports faisant état d'une montée en visibilité des messages extrémistes sur X crédibles ou pertinents ? En avez-vous fait l'expérience ?
Pensez-vous que la liberté d’expression sur les plateformes comme X devrait être absolue, même si cela signifie tolérer des discours haineux ?
Quels outils ou mesures de modération pourraient concilier liberté d'expression et sécurité en ligne ?
La régulation stricte de l'Union Européenne est-elle un modèle que les États-Unis devraient suivre pour limiter les discours extrémistes en ligne ?
Elon Musk a-t-il raison de prioriser l’engagement des utilisateurs au détriment de la modération des contenus ?
Jusqu’où les gouvernements doivent-ils aller dans la régulation des plateformes pour éviter les abus sans risquer la censure ?