La Commission européenne a lancé une proposition de loi visant à lutter contre le matériel pédopornographique en ligne, mais qui soulève de graves problèmes de respect de la vie privée. Pour tenter de convaincre l'opinion publique de la soutenir, elle a lancé une campagne vidéo. Danny Mekić, un chercheur néerlandais, a dénoncé la campagne comme une tentative de manipulation et d’intimidation de la part de la Commission. Il a publié ses découvertes sur son blog et a contacté plusieurs médias et politiciens pour attirer l’attention sur cette affaire.La proposition de la Commission européenne pourrait obliger les entreprises technologiques à analyser les messages privés à la recherche de matériel d'abus sexuel d'enfants (CSAM pour Child Sexual Abuse Material) et de preuves de pédopiégeage, même lorsque ces messages sont censés être protégés par un chiffrement de bout en bout.
D'après le projet de régulation, les messageries devraient, d'ici à l'an prochain, mettre en place des outils pour détecter l'échange d'images pédopornographiques. Il est question de se servir d'outils basés sur l'intelligence artificielle pour analyser ces contenus, dans le but de détecter une image suspecte ou une conversation problématique. En cas de suspicion, une alerte serait envoyée à une agence européenne dédiée, à des fins d'analyses complémentaires.
La Commission affirme que cette mesure est nécessaire pour protéger les enfants des prédateurs sexuels et pour aider les autorités à poursuivre les criminels. Cependant, de nombreux experts, activistes et organisations de défense des droits de l’homme s’opposent à cette proposition, estimant qu’elle constitue une atteinte disproportionnée à la vie privée et à la sécurité des communications en ligne
La pilule a du mal à passer
Lors d'un séminaire public organisé ce 23 octobre, de nombreux experts ont toutefois pointé du doigt l'impossibilité de recourir à de telles analyses sans mettre à mal la vie privée des internautes européens.
Helen Charles, représentante des affaires publiques de Whatsapp, a exprimé ses « inquiétudes concernant l'implémentation » d'une telle solution à l'occasion de ce séminaire : « Nous pensons que toute demande d'analyse des contenus dans une messagerie chiffrée pourrait nuire aux droits fondamentaux » a-t-elle indiqué, tout en plaidant pour l'utilisation d'autres techniques, comme le signalement d'utilisateurs mais aussi le suivi du trafic des internautes pour détecter des comportements suspects.
Le même jour, le Contrôleur européen de la protection des données (CEPD), une institution indépendante de l’Union européenne, a rendu son avis sur le CSAM :
Il est techniquement impossible de mettre en œuvre une analyse de contenu connu ou nouveau et une détection de toilettage par un fournisseur de services sans affaiblir le chiffrement de bout en bout et porter atteinte à la vie privée des utilisateurs. C’est la conclusion sans équivoque de centaines d’éminents scientifiques et chercheurs dans le domaine. En outre, de nombreux experts s’accordent sur le fait que les solutions technologiques de détection les plus récentes ne sont pas suffisamment fiables et sont également vulnérables aux cyberattaques.
La proposition CSAM n’offre pas non plus de solutions sur la manière d’atténuer le risque émergent du « CSAM synthétique », c’est-à-dire des images, des vidéos et du texte/voix générés par ordinateur, y compris à l’aide d’applications d’IA générative accessibles au public.
La proposition CSAM n’offre pas non plus de solutions sur la manière d’atténuer le risque émergent du « CSAM synthétique », c’est-à-dire des images, des vidéos et du texte/voix générés par ordinateur, y compris à l’aide d’applications d’IA générative accessibles au public.
Rappelons que, dans son étude d'impact, la Commission européenne assure pouvoir atteindre un taux de précision de 99,9%. Toutefois, cette statistique ne vaut que pour l'analyse d'une image qui serait déjà présente dans une base de données et caractérisée comme image pédopornographique. Un procédé qui consiste, de façon plutôt basique, à comparer automatiquement deux clichés entre eux.
Danny Mekić, un chercheur néerlandais, a déclaré à ce sujet :
L’intelligence artificielle ne peut pas détecter avec précision les activités criminelles, mais elle signalera à tort des millions de citoyens innocents comme suspects. Pendant ce temps, les criminels contournent facilement ce système en supprimant ces applications de leur téléphone ou en disparaissant sur le dark web. Même si la proposition de la commissaire européenne aux Affaires intérieures, Ylva Johansson, est inefficace, elle signifie néanmoins la fin des conversations numériques privées pour tous. Pour des raisons évidentes, cela est incompatible avec le droit à la vie privée, à la liberté de communication et à la présomption d'innocence.
En septembre, la Commission a lancé une campagne publicitaire sur X, anciennement Twitter, visant à promouvoir sa proposition et à influencer l’opinion publique. La campagne présentait des vidéos mettant en scène de jeunes filles et des hommes sur un fond sombre, accompagnées d’une musique inquiétante. Les vidéos affichaient des statistiques issues d’un sondage sur la pédopornographie et la vie privée en ligne, réalisé par la Commission.
Les résultats du sondage suggéraient qu’une majorité de citoyens européens soutiendraient le scanneur de tous leurs messages numériques. Cependant, ces résultats semblaient biaisés et entachés d’erreurs. Le sondage aurait induit en erreur les participants, selon des lecteurs de Twitter/X qui ont ajouté du contexte à la vidéo dans des versions en d'autres langues :
Cette annonce est trompeuse. La proposition permet à l'UE de scanner tous les messages et images présents sur les téléphones de tous. L'enquête cache...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.
