
Pour rappel, l’UE a décidé de réglementer parce qu'elle a estimé que les entreprises du numérique n'en faisaient pas assez dans le cadre de mesures volontaires, même si la première heure est la plus importante pour endiguer la propagation virale du contenu en ligne. Le Parlement a adopté hier le projet de loi, qui vise à lutter contre l'utilisation abusive des services d'hébergement Internet à des « fins terroristes », par 308 voix, 204 parlementaires ont voté contre et 70 se sont abstenus de voter.
Ces nouvelles mesures annoncées depuis l’année dernière sont devenues plus claires et précises depuis la diffusion en direct sur la principale plateforme de réseau social de Facebook d’une scène horrible impliquant un homme armé qui a tué 50 personnes dans deux mosquées néo-zélandaises en mars dernier.
Daniel Dalton, le rapporteur du Parlement pour cette proposition a déclaré :
« Il est clair qu'il y a un problème avec le contenu terroriste qui circule sans contrôle sur Internet depuis trop longtemps ». « Cette propagande peut être liée à des incidents terroristes réels et les autorités nationales doivent être en mesure d'agir avec détermination. Toute nouvelle législation doit être pratique et proportionnée si nous voulons sauvegarder la liberté d'expression », a-t-il ajouté. Cependant, le rapporteur du Parlement dit que « Ça ne peut absolument pas mener à un contrôle général du contenu par la porte dérobée. »
Le projet de loi, proposé par la Commission de l‘Union l'année dernière, donne une heure aux entreprises de l'Internet pour supprimer les contenus terroristes après avoir reçu un ordre d'une « autorité compétente » d'un pays de l'UE. Le « contenu terroriste » auquel fait référence la législation comprend tout contenu qui incite à commettre des infractions terroristes ou qui prône des infractions terroristes. Tout contenu qui fait la promotion des activités d'un groupe terroriste ou enseigne des techniques terroristes, d’après le projet de loi.
Le projet de loi fait obligation aux entreprises de prendre des « mesures proactives » pour stopper la propagation des contenus terroristes. Cela inclut l'utilisation d'outils automatisés pour empêcher que le contenu qui a déjà été supprimé ne soit rechargé. Tout « manquement systématique » à ces obligations de la part des entreprises du numérique opérant dans l'UE pourraient entrainer de lourdes sanctions financières allant jusqu’à 4 % du chiffre d’affaires annuel mondial. La nouvelle législation retient également que les entreprises qui sont visées pour la première fois par la mesure de suppression de contenus recevraient 12 heures de plus pour se conformer à la mesure.
Des efforts sont également consentis pour les petites plateformes. Selon Reuters, les législateurs ont déclaré que les autorités devraient prendre en compte la taille et les revenus des entreprises concernées afin de tenir compte des préoccupations de l'industrie selon lesquelles les petites plateformes n'ont pas les mêmes ressources pour se conformer aussi rapidement à ces nouvelles règles plus strictes.
Depuis la proposition de la législation l’année dernière, des modifications ont été apportées au texte original. Dans l’un des amendements, la nouvelle législation ne fait plus obligation aux entreprises concernées par les mesures de « surveiller les informations qu'elles transmettent ou stockent, ni de rechercher activement des faits indiquant une activité illégale ». Selon le projet de loi, il revient aux gouvernements nationaux de l'Union de mettre en place les outils permettant d'identifier les contenus extrémistes et une procédure de recours.
Un autre amendement indique que l' « autorité compétente » devrait donner aux entreprises des informations sur les procédures et les délais de 12 heures pour le tout premier ordre de suppression de contenus avant le délai d'une heure convenue par la loi. La règle de l'heure s'appliquerait à partir du moment de la notification par les autorités nationales.
Dans une autre modification, la Commission a décidé que les autorités qui s'occupent du contenu terroriste dans un Etat donné ne devraient pas passer un ordre directement aux entreprises dans un autre Etat membre de l’UE. Elles devraient contacter les autorités de cet Etat, plutôt que de traiter directement avec les entreprises.
Le député européen Daniel Dalton , a déclaré à la BBC :
« Il s'agit d'une position forte du Parlement qui garantit qu'il y aura un délai d'une heure pour retirer le contenu. Elle garantit également des sauvegardes pour les petites plateformes, s'assure qu'il n'y a pas de filtres de téléchargement et préserve la liberté d'expression ».
Cependant, selon BBC News, d’autres personnes ont trouvé que les amendements ne vont pas assez loin dans la protection de la liberté d'expression. En février dernier, l'eurodéputée allemande Julia Reda a déclaré que la législation risquait de « renoncer à nos libertés fondamentales et saper notre démocratie libérale ». Toutefois, elle s'est félicitée des changements apportés par le Parlement européen, mais a déclaré que le délai d'une heure était « impraticable pour les plateformes gérées par des fournisseurs individuels ou de petite taille ». Pour rappel, le géant Facebook a déclaré n'avoir fini de retiré les 1,5 million de vidéos de l'attaque néo-zélandaise que dans les 24 heures qui ont suivi la fusillade.
Elle a fait valoir que les pressions exercées par l’UE pour maintenir ce type de contenu hors ligne inciteraient les entreprises à utiliser des filtres automatisés qui « ne pouvaient qu'entraîner la suppression des téléchargements légaux ». En effet, les entreprises s'appuient sur une combinaison d'outils automatisés et de modérateurs humains pour repérer et supprimer les contenus extrémistes.
Vu que le mandat actuel arrive à son terme, un nouveau Parlement européen, qui sera élu du 23 au 26 mai, finalisera le texte de la loi dans le cadre de négociations avec la Commission européenne et les représentants des gouvernements des pays membres de l'UE, un processus qui devrait prendre plusieurs mois. Et espérons que les outils de détection de contenu qui seront mis en place dans les Etats membres soient efficaces et que la pression des autorités locales sur les entreprises ne soit utilisée comme prétexte par ces entreprises pour se lancer dans la pratique de la censure sur Internet.
Source : Reuters, BBC News
Et vous ?

Lire aussi




