La Commission européenne demande toujours plus d'effort aux plateformes en ligne dans le cadre de sa lutte contre toute forme de contenu illicite en ligne, allant du contenu à caractère terroriste, de l'incitation à la haine et à la violence, de la pédopornographie aux produits de contrefaçon et aux violations du droit d'auteur. Inquiète du rôle de ces contenus, la Commission européenne avait proposé en 2018 une loi pour obliger Google, Facebook et Twitter à supprimer les contenus terroristes dans l'heure qui suit leur notification, pour empêcher qu'ils se répandent.
L'exécutif européen définit le contenu terroriste en ligne comme du matériel incitant au terrorisme ou visant à recruter ou à former des terroristes, mais également du matériel fournissant des conseils sur la façon de fabriquer et utiliser des explosifs et des armes à feu à des fins terroristes. Malgré les inquiétudes des groupes de défense des droits civils, la proposition de loi a désormais franchi le dernier obstacle après que les législateurs européens lui ont donné leur aval ce mercredi. La législation entrera en vigueur douze mois après sa publication au Journal officiel de l'Union européenne, étape normale pour toute législation européenne.
Elle devra ensuite être adoptée par chaque État membre. Le député européen Patryk Jaki, partisan de la loi, s'est exprimé en ces termes : « la législation établit un équilibre entre la sécurité et la liberté de parole et d'expression sur l'Internet, protège le contenu légal et l'accès à l'information pour chaque citoyen de l'UE, tout en luttant contre le terrorisme par la coopération et la confiance entre les États ». Sous sa forme actuelle, la législation adoptée par le Parlement européen prévoit que les entreprises concernées sont passibles d'amendes pouvant atteindre 4 % de leur chiffre d'affaires mondial en cas de non-conformité.
Celles-ci auraient déclaré qu'elles partageaient les efforts des régulateurs pour s'attaquer à ce problème et empêcher le contenu d'être diffusé sur leurs plateformes. Si beaucoup sont enthousiastes quant à la loi, certains législateurs qui s'y étaient opposés ont mis en garde contre des conséquences de grandes ampleurs. En effet, depuis qu'elle a été dévoilée, la législation a fait l'objet de plusieurs discussions au sein de l'UE. Elle a en fait d'abord été proposée à un moment où les attaques terroristes de groupes comme ISIS atteignaient des sommets sur le continent et où les législateurs s'inquiétaient de la radicalisation en ligne.
Depuis lors, les propositions ont fait leur chemin dans les organes législatifs de l'UE, avec de nombreux amendements majeurs. En particulier, la loi exclut désormais explicitement les suppressions de contenus terroristes faisant partie de matériel éducatif, artistique, journalistique ou universitaire. En outre, elle ne prévoit pas non plus d'obligation pour les sociétés Internet de surveiller ou de filtrer leur contenu de manière préventive. Cependant, plusieurs députés européens et groupes de défense des droits s'inquiètent toujours des effets inattendus de la législation.
« Nous risquons vraiment la censure dans toute l'Europe. Les gouvernements hongrois et polonais ont déjà démontré qu'ils n'avaient aucun problème à supprimer les contenus qu'ils désapprouvent », a déclaré le vice-président du Parlement européen, Marcel Kolaja. « Ce règlement leur permet d'étendre ces pratiques au territoire de tout autre État membre », a-t-il ajouté. Par ailleurs, bien que les entreprises ne soient pas obligées de filtrer le contenu, elles pourraient choisir de le faire afin d'éviter de devoir répondre rapidement aux notifications de retrait.
Interrogés sur le sujet, les experts estiment que ces filtres algorithmiques pourraient faire preuve d'un excès de zèle en bloquant des contenus légitimes. « Dire que [l'utilisation de filtres automatisés] n'est pas une obligation revient à l'autoriser », a déclaré à Gwendoline Delbos-Corfield, une eurodéputée verte française. « Une telle technologie pourrait sembler particulièrement attrayante dans un contexte où l'algorithme va être moins cher que les moyens humains ». Une autre préoccupation est que la limite d'une heure pour le retrait est un délai trop court pour les petites plateformes disposant de moins de ressources.
Ces plateformes sont souvent utilisées par des groupes terroristes pour héberger du contenu, précisément parce qu'elles ne peuvent pas le modérer. Cela rendrait les affaires plus difficiles pour ces entreprises, étouffant la concurrence sur un marché déjà dominé par les géants américains de la technologie. Il est également possible que les États membres de l'UE interprètent de manière préjudiciable ce qui constitue un contenu "terroriste".
« Cela pourrait ouvrir la voie aux régimes autoritaires, comme ceux de la Pologne et de la Hongrie, pour faire taire leurs critiques à l'étranger en émettant des ordres de suppression au-delà de leurs frontières », écrit un groupe de défense des droits civils. « Comme cela doit se faire dans l'heure, les plateformes en ligne n'auront d'autre choix que de se conformer à ces ordres pour éviter des amendes ou des problèmes juridiques ».
Source : Annonce du Parlement européen
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que la loi a un impact sur la liberté d'expression ?
Pensez-vous que l'on devrait simplement s'en tenir à la modération faite actuellement par les plateformes ?
Voir aussi
L'UE prépare une loi pour la suppression de contenu terroriste en ligne dans un délai d'une heure par les plateformes du Net, sous peine d'amende
Le Parlement de l'UE vote en faveur d'une amende pour les entreprises du numérique afin de les obliger à supprimer rapidement le contenu extrémiste
L'Europe prépare son projet de loi pour obliger les médias sociaux à supprimer les contenus terroristes dans l'heure, sous peine d'une lourde amende