La proposition de la Commission européenne pourrait obliger les entreprises technologiques à analyser les messages privés à la recherche de matériel d'abus sexuel d'enfants (CSAM pour Child Sexual Abuse Material) et de preuves de pédopiégeage, même lorsque ces messages sont censés être protégés par un chiffrement de bout en bout.
D'après le projet de régulation, les messageries devraient, d'ici à l'an prochain, mettre en place des outils pour détecter l'échange d'images pédopornographiques. Il est question de se servir d'outils basés sur l'intelligence artificielle pour analyser ces contenus, dans le but de détecter une image suspecte ou une conversation problématique. En cas de suspicion, une alerte serait envoyée à une agence européenne dédiée, à des fins d'analyses complémentaires.
La Commission affirme que cette mesure est nécessaire pour protéger les enfants des prédateurs sexuels et pour aider les autorités à poursuivre les criminels. Cependant, de nombreux experts, activistes et organisations de défense des droits de l’homme s’opposent à cette proposition, estimant qu’elle constitue une atteinte disproportionnée à la vie privée et à la sécurité des communications en ligne
La pilule a du mal à passer
Lors d'un séminaire public organisé ce 23 octobre, de nombreux experts ont toutefois pointé du doigt l'impossibilité de recourir à de telles analyses sans mettre à mal la vie privée des internautes européens.
Helen Charles, représentante des affaires publiques de Whatsapp, a exprimé ses « inquiétudes concernant l'implémentation » d'une telle solution à l'occasion de ce séminaire : « Nous pensons que toute demande d'analyse des contenus dans une messagerie chiffrée pourrait nuire aux droits fondamentaux » a-t-elle indiqué, tout en plaidant pour l'utilisation d'autres techniques, comme le signalement d'utilisateurs mais aussi le suivi du trafic des internautes pour détecter des comportements suspects.
Le même jour, le Contrôleur européen de la protection des données (CEPD), une institution indépendante de l’Union européenne, a rendu son avis sur le CSAM :
Il est techniquement impossible de mettre en œuvre une analyse de contenu connu ou nouveau et une détection de toilettage par un fournisseur de services sans affaiblir le chiffrement de bout en bout et porter atteinte à la vie privée des utilisateurs. C’est la conclusion sans équivoque de centaines d’éminents scientifiques et chercheurs dans le domaine. En outre, de nombreux experts s’accordent sur le fait que les solutions technologiques de détection les plus récentes ne sont pas suffisamment fiables et sont également vulnérables aux cyberattaques.
La proposition CSAM n’offre pas non plus de solutions sur la manière d’atténuer le risque émergent du « CSAM synthétique », c’est-à-dire des images, des vidéos et du texte/voix générés par ordinateur, y compris à l’aide d’applications d’IA générative accessibles au public.
La proposition CSAM n’offre pas non plus de solutions sur la manière d’atténuer le risque émergent du « CSAM synthétique », c’est-à-dire des images, des vidéos et du texte/voix générés par ordinateur, y compris à l’aide d’applications d’IA générative accessibles au public.
Rappelons que, dans son étude d'impact, la Commission européenne assure pouvoir atteindre un taux de précision de 99,9%. Toutefois, cette statistique ne vaut que pour l'analyse d'une image qui serait déjà présente dans une base de données et caractérisée comme image pédopornographique. Un procédé qui consiste, de façon plutôt basique, à comparer automatiquement deux clichés entre eux.
Danny Mekić, un chercheur néerlandais, a déclaré à ce sujet :
L’intelligence artificielle ne peut pas détecter avec précision les activités criminelles, mais elle signalera à tort des millions de citoyens innocents comme suspects. Pendant ce temps, les criminels contournent facilement ce système en supprimant ces applications de leur téléphone ou en disparaissant sur le dark web. Même si la proposition de la commissaire européenne aux Affaires intérieures, Ylva Johansson, est inefficace, elle signifie néanmoins la fin des conversations numériques privées pour tous. Pour des raisons évidentes, cela est incompatible avec le droit à la vie privée, à la liberté de communication et à la présomption d'innocence.
En septembre, la Commission a lancé une campagne publicitaire sur X, anciennement Twitter, visant à promouvoir sa proposition et à influencer l’opinion publique. La campagne présentait des vidéos mettant en scène de jeunes filles et des hommes sur un fond sombre, accompagnées d’une musique inquiétante. Les vidéos affichaient des statistiques issues d’un sondage sur la pédopornographie et la vie privée en ligne, réalisé par la Commission.
Les résultats du sondage suggéraient qu’une majorité de citoyens européens soutiendraient le scanneur de tous leurs messages numériques. Cependant, ces résultats semblaient biaisés et entachés d’erreurs. Le sondage aurait induit en erreur les participants, selon des lecteurs de Twitter/X qui ont ajouté du contexte à la vidéo dans des versions en d'autres langues :
Cette annonce est trompeuse. La proposition permet à l'UE de scanner tous les messages et images présents sur les téléphones de tous. L'enquête cache ce fait et parle de « messages EN LIGNE, e-mails, chat et réseaux sociaux ». « La majorité des citoyens soutiennent la proposition » est donc incorrect.
C'est également ce que pense Danny Mekić. Lorsqu'il est tombé sur la campagne, il a pensé que les vidéos étaient inhabituelles pour une organisation gouvernementale et a décidé d'approfondir. Les résultats de l'enquête présentés dans les vidéos suggèrent qu'une majorité de citoyens de l'UE seraient favorables à la numérisation de toutes leurs communications numériques. Après une inspection plus approfondie, il a découvert que ces conclusions semblaient biaisées et erronées. Les résultats de l'enquête ont été obtenus en trompant les participants, affirme-t-il, ce qui a pu induire en erreur les destinataires des annonces ; la conclusion selon laquelle les citoyens de l’UE étaient satisfaits d’une plus grande surveillance n’a pas pu être tirée de l’enquête, et les résultats se sont heurtés à ceux des sondages indépendants.⚠️Les prédateurs se cachent derrière les écrans et les enfants souffrent en silence
— EU Home Affairs (@EUHomeAffairs) September 15, 2023
⏳Il est temps de mettre fin aux abus sexuels sur les enfants
🇫🇷 La majorité des citoyens est favorable à ce que propose l’UE #EUvsChildSexualAbuse
Et vous? Pour en savoir plus, cliquez ici↓
Danny Mekić affirme que les questions posées étaient ambiguës, trompeuses ou orientées.
Par exemple, une question demandait aux participants s’ils étaient d’accord avec l’affirmation suivante : « Je pense qu’il est important que les fournisseurs de services en ligne prennent des mesures pour empêcher que du matériel pédopornographique ne soit partagé sur leurs plateformes ». Cette question ne mentionnait pas le fait que ces mesures impliqueraient de scanner des messages privés des utilisateurs.
Mekić a également constaté que la campagne publicitaire ciblait des destinataires spécifiques, en fonction de leurs croyances religieuses et de leur orientation politique, ce qui pourrait constituer une violation des lois européennes sur la protection des données et des conditions d’utilisation de X. Il a remarqué que les annonces étaient diffusées uniquement dans les sept pays qui n’avaient pas soutenu le projet de loi au Conseil.
Voici un extrait de son billet :
Fait inquiétant, le lendemain, le 15 septembre, le commissaire européen a lancé une campagne publicitaire payante pour dire qu'il ne voulait pas voter pour la proposition actuelle le 14 septembre. La campagne, qui a été vue plus de quatre millions de fois, utilise des images choquantes de jeunes filles aux côtés d'hommes à l'allure sinistre, une musique menaçante et commet une forme de chantage émotionnel en suggérant que les opposants au projet de loi ne voudraient pas protéger les enfants. Tout aussi trompeuse est l'affirmation de la Commission selon laquelle le projet de loi serait soutenu par la majorité des Européens, sur la base d'une enquête qui mettait uniquement en évidence les avantages mais pas les inconvénients de la législation proposée. Les enquêtes menées par les agences de recherche YouGov et Novus, qui ont souligné les inconvénients, n'ont montré pratiquement aucun soutien à la proposition parmi la population européenne.
Pour plier l’opinion publique européenne à sa volonté, la Commission européenne est allée encore plus loin. Le rapport de transparence de « spanexit » ou de Victor Orbán, Nigel Farage ou du parti politique allemand AfD). Pour des raisons peu claires, les personnes intéressées par le christianisme (les personnes intéressées par le terme « chrétien ») ont également été exclues. Après avoir exclu les groupes politiques et religieux critiques, l'algorithme de X a été configuré pour trouver des personnes dans la population restante intéressées par le message publicitaire, ce qui a donné naissance à une chambre d'écho non critique. Ce micro-ciblage basé sur des convictions politiques et religieuses est contraire à la politique publicitaire de X, à la loi sur les services numériques - que la Commission elle-même doit contrôler - et au règlement général sur la protection des données.
Si le soutien à un projet de loi est insuffisant, la seule réponse démocratique correcte est de le retirer ou, comme l'a suggéré l'Allemagne, d'ajuster la proposition afin qu'elle puisse compter sur un soutien suffisant. Dans ce cas, cela signifie ne pas introduire le « téléécran » anticonstitutionnel, qui semble tout droit sorti du livre d'Orwell. Au lieu de cela, la Commission a tenté d'influencer l'opinion des citoyens des États membres hésitants avec des tactiques qui rappellent étrangement les campagnes de désinformation menées lors des élections américaines et du Brexit, telles que le recours à des publicités manipulatrices, des statistiques trompeuses et un micro-ciblage fondé sur la foi. philosophie de la vie.
En mettant de côté les valeurs européennes dans sa quête pour faire adopter un texte législatif controversé, la Commission ne rend pas seulement un mauvais service aux citoyens qu'elle représente, elle met également en danger les fondements démocratiques de l'Union elle-même. Par conséquent, la Commission européenne devrait mettre les campagnes publicitaires hors ligne et les maintenir hors ligne et s'abstenir de toute tentative future de manipuler l'opinion publique européenne avec de telles campagnes de désinformation au moyen de publicités ciblées sur les réseaux sociaux.
Pour plier l’opinion publique européenne à sa volonté, la Commission européenne est allée encore plus loin. Le rapport de transparence de « spanexit » ou de Victor Orbán, Nigel Farage ou du parti politique allemand AfD). Pour des raisons peu claires, les personnes intéressées par le christianisme (les personnes intéressées par le terme « chrétien ») ont également été exclues. Après avoir exclu les groupes politiques et religieux critiques, l'algorithme de X a été configuré pour trouver des personnes dans la population restante intéressées par le message publicitaire, ce qui a donné naissance à une chambre d'écho non critique. Ce micro-ciblage basé sur des convictions politiques et religieuses est contraire à la politique publicitaire de X, à la loi sur les services numériques - que la Commission elle-même doit contrôler - et au règlement général sur la protection des données.
Si le soutien à un projet de loi est insuffisant, la seule réponse démocratique correcte est de le retirer ou, comme l'a suggéré l'Allemagne, d'ajuster la proposition afin qu'elle puisse compter sur un soutien suffisant. Dans ce cas, cela signifie ne pas introduire le « téléécran » anticonstitutionnel, qui semble tout droit sorti du livre d'Orwell. Au lieu de cela, la Commission a tenté d'influencer l'opinion des citoyens des États membres hésitants avec des tactiques qui rappellent étrangement les campagnes de désinformation menées lors des élections américaines et du Brexit, telles que le recours à des publicités manipulatrices, des statistiques trompeuses et un micro-ciblage fondé sur la foi. philosophie de la vie.
En mettant de côté les valeurs européennes dans sa quête pour faire adopter un texte législatif controversé, la Commission ne rend pas seulement un mauvais service aux citoyens qu'elle représente, elle met également en danger les fondements démocratiques de l'Union elle-même. Par conséquent, la Commission européenne devrait mettre les campagnes publicitaires hors ligne et les maintenir hors ligne et s'abstenir de toute tentative future de manipuler l'opinion publique européenne avec de telles campagnes de désinformation au moyen de publicités ciblées sur les réseaux sociaux.
La Commission a réagi en affirmant que sa campagne était conforme aux règles et aux normes éthiques. Elle a déclaré que son objectif était d’informer le public sur un sujet important et sensible, et non pas d’influencer le processus législatif. Elle a également défendu la qualité et la fiabilité du sondage qu’elle avait commandé.
La campagne publicitaire de la Commission a suscité de vives critiques de la part de divers acteurs, tels que des organisations de la société civile, des experts en sécurité, des défenseurs des droits numériques et des responsables politiques. Certains ont qualifié la campagne de « propagande », de « désinformation » ou de « guerre contre le chiffrement ». D’autres ont appelé à une enquête indépendante sur les pratiques et les motivations de la Commission.
La controverse autour de la campagne publicitaire a mis en lumière les enjeux et les dilemmes liés à la proposition de loi sur le scanneur des messages privés. D’une part, il s’agit de protéger les enfants des abus sexuels et de lutter contre un crime odieux. D’autre part, il s’agit de préserver la vie privée et la sécurité des communications en ligne, qui sont essentielles pour la démocratie, les droits de l’homme et l’innovation.
La question est de savoir si un scanneur des messages privés est une solution efficace et proportionnée pour atteindre le premier objectif, sans compromettre le second. Mais le secteur technologique est unanime : pas question d'affaiblir le chiffrement.
La proposition de loi sur un scanneur des messages privés est actuellement en cours de négociation entre le Conseil, le Parlement et la Commission européens. Il n’est pas certain qu’un accord soit trouvé avant la fin de l’année 2023.
Sources : billet Danny Mekić, Contrôleur européen de la protection des données, séminaire sur le CSAM, commission européenne
Et vous ?
Que pensez-vous du scanneur des messages privés comme moyen de lutter contre la pédopornographie en ligne ? Est-ce une solution efficace et proportionnée, ou une atteinte inacceptable à la vie privée et à la sécurité des communications en ligne ?
Quels sont les risques et les bénéfices potentiels du scanneur des messages privés pour les utilisateurs, les plateformes numériques et les autorités ? Comment ces risques et ces bénéfices peuvent-ils être évalués et pondérés ?
Quelles sont les alternatives possibles au scanneur des messages privés pour prévenir et combattre la pédopornographie en ligne ? Quels sont leurs avantages et leurs inconvénients par rapport au scanneur des messages privés ?
Quelle est votre opinion sur la campagne publicitaire de la Commission européenne sur le scanneur des messages privés ? La trouvez-vous informative, persuasive, manipulatrice ou intimidante ? Pourquoi ?