IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Chat Control est incompatible avec les droits fondamentaux
Le projet soulève de telles préoccupations en matière de droits fondamentaux que la GFF (The Society for Civil Rights) se joint au débat

Le , par Jade Emy

17PARTAGES

4  0 
La Commission européenne a présenté un projet de règlement visant à établir des règles pour prévenir et combattre la violence sexuelle à l'encontre des enfants (règlement du Chat Control). Ce projet de règlement soulève de telles préoccupations en matière de droits fondamentaux que la GFF se joint au débat alors que le projet est encore en cours de délibération au niveau de l'UE.

Le projet de règlement de la Commission européenne sur le Chat Control (contrôle des chats) est actuellement en cours de négociation au Parlement européen et au Conseil des ministres. Avec la lutte contre les violences sexuelles faites aux enfants, le projet poursuit un objectif essentiel pour la protection des enfants et de leurs droits et peut justifier des restrictions des droits fondamentaux.

Cependant, il existe des doutes considérables quant à l'efficacité des mesures proposées. La GFF (The Society for Civil Rights) est convaincus que le projet viole la Charte des droits fondamentaux de l'UE sur des points cruciaux. Voici les cinq principales objections relatives aux droits fondamentaux que soulève la proposition de contrôle du chat.


Le Chat Control viole le droit à la vie privée

La proposition de la Commission européenne prévoit toute une série d'obligations pour certains services en ligne tels que les fournisseurs d'accès à Internet, les magasins d'applications, les plateformes d'hébergement et les services de communications interpersonnelles. Les services de communications interpersonnelles sont, par exemple, des services de courrier électronique tels que GMail ou des services de messagerie instantanée tels que WhatsApp.

L'expression "contrôle du chat" est souvent utilisée de manière familière pour désigner le projet de règlement de la Commission européenne dans son ensemble. Au sens strict, il s'agit de la partie du projet selon laquelle les autorités peuvent obliger les fournisseurs de services de communication tels que WhatsApp à surveiller les communications privées.

Il s'agit d'une restriction particulièrement grave du droit à la vie privée et à la protection des données à caractère personnel (articles 7 et 8 de la Charte des droits fondamentaux de l'UE) : La surveillance n'est pas limitée aux personnes spécifiquement soupçonnées d'avoir commis un délit. En outre, contrairement à la conservation des données, qui est également incompatible avec la Charte mais se limite aux métadonnées - c'est-à-dire aux informations sur qui a communiqué avec qui et à quel moment - le contrôle des chats comprend la surveillance du contenu des messages privés.

Les autorités peuvent imposer des "ordres de détection" aux fournisseurs de services de communications interpersonnelles. Cela signifie que les autorités peuvent, par exemple, obliger les services de messagerie à surveiller les communications de tous leurs utilisateurs. Il suffit que l'autorité ait identifié un risque significatif que le service en question soit utilisé pour la diffusion de représentations de violences sexuelles à l'encontre d'enfants.

Les ordonnances de détection ne doivent pas nécessairement se limiter à la surveillance des communications d'utilisateurs spécifiques qui sont soupçonnés. Au contraire, les autorités peuvent ordonner que le contenu de toutes les communications de tous les utilisateurs du service soit surveillé à titre préventif. Il s'agit donc d'une forme de surveillance de masse sans motif valable.

Une telle ordonnance de détection peut obliger les fournisseurs de services à filtrer le contenu pour détecter les représentations connues ou inconnues de violence sexuelle à l'encontre des enfants. En outre, elle peut prévoir l'obligation de détecter les tentatives de sollicitation de mineurs par des adultes (grooming). Les contenus ainsi détectés doivent être transmis par les fournisseurs de services à un centre européen nouvellement créé, qui transmettra les informations aux autorités répressives des États membres après un contrôle de plausibilité.

Bien que les fournisseurs de services soient libres de choisir les technologies qu'ils utilisent pour se conformer à l'ordonnance de détection, ces technologies doivent en tout état de cause être en mesure d'analyser le contenu des communications. Pour détecter les représentations connues de violences sexuelles à l'encontre d'enfants, une comparaison automatisée des fichiers multimédias envoyés avec une base de données de référence peut suffire. Pour détecter des représentations inconnues de la violence sexuelle et du "grooming", l'apprentissage automatique doit être utilisé pour analyser le contenu sémantique des chats.

Ces méthodes sont particulièrement sujettes à l'erreur : elles ne font qu'émettre une hypothèse sur la signification du contenu en se basant sur des modèles dans la communication analysée - sans réellement comprendre le contenu ou le contexte de la conversation. Dans sa jurisprudence sur la conservation des données, la Cour européenne de justice a indiqué qu'une surveillance de masse indiscriminée du contenu des communications violerait l'essence même du droit à la vie privée.

La surveillance de masse indiscriminée est incompatible avec les droits fondamentaux à la vie privée et à la protection des données garantis par la Charte de l'Union européenne, qu'il s'agisse de communications chiffrées ou non chiffrées. Au centre des critiques du public concernant le contrôle des chats se trouve le fait que le projet de règlement n'exempte pas les services de communication chiffrée de bout en bout des injonctions de détection.

Ces services garantissent que seules les personnes impliquées dans une conversation privée peuvent lire le contenu de la communication - ni le fournisseur de services ni les tiers ne peuvent le déchiffrer. De plus en plus de personnes choisissent spécifiquement des messageries chiffrées de bout en bout pour se protéger. Si le fournisseur d'une telle messagerie reçoit un ordre de détection, il ne peut pas le rejeter au motif que le fournisseur de services ne peut pas accéder au contenu des communications de ses utilisateurs.

Le projet de la Commission européenne souligne l'importance du chiffrement de bout en bout. Toutefois, les fournisseurs de services ne peuvent choisir qu'entre des technologies qui leur permettent de détecter des contenus illicites dans des communications privées. En d'autres termes, les fournisseurs de services qui proposent un chiffrement de bout en bout sans porte dérobée ne seront pas en mesure de mettre en œuvre les ordres de détection qu'ils pourraient recevoir des autorités et entreront donc en conflit avec la loi. Cette attaque contre le chiffrement de bout en bout accroît l'intensité de la restriction des droits fondamentaux causée par la surveillance de masse indiscriminée.

Menace d'effets paralysants pour les libertés de communication

La Cour européenne de justice a déjà averti à plusieurs reprises que la surveillance de masse indiscriminée a un impact négatif indirect sur la liberté d'expression (article 11 de la Charte des droits fondamentaux de l'UE) : les participants à la communication sont empêchés d'exprimer librement leurs opinions s'ils ne peuvent pas être sûrs de la confidentialité de leurs communications. Cela affecte particulièrement les détenteurs du secret professionnel, tels que les journalistes qui communiquent avec leurs sources, les dénonciateurs et les militants de l'opposition.

Ce danger sera exacerbé si le règlement sur le contrôle des chats, tel que proposé par la Commission européenne, s'attaque au chiffrement de bout en bout des services de messagerie. Les groupes de personnes susmentionnés utilisent ces messageries pour de bonnes raisons. Si cette possibilité leur est retirée parce que les fournisseurs de services doivent affaiblir le chiffrement de bout en bout, on peut s'attendre à des "effets de refroidissement" considérables, c'est-à-dire à un effet dissuasif sur l'exercice du droit fondamental à la liberté d'expression et d'information.

Cet effet se produit indépendamment du fait que les fournisseurs de services surveillent le contenu des communications privées par une porte dérobée dans la technologie de criffrement ou en analysant le contenu sur l'appareil de l'utilisateur avant qu'il ne soit criffré (analyse côté client). Les participants à la communication s'attendent à ce que leur communication reste confidentielle à partir du moment où ils saisissent un message dans le programme de chat de leur téléphone portable - et pas seulement au moment où ce message est remis à son destinataire. Le facteur décisif est que l'attente de confidentialité et d'intégrité du processus de communication soit ébranlée à un point tel que les personnes concernées se sentent obligées de restreindre elles-mêmes l'exercice de leur liberté de communication.

Obligations de filtrage de facto pour les fournisseurs d'hébergement sans garanties

La critique publique de la proposition s'est concentrée sur l'expression "contrôle des chats", qui met en évidence les obligations prévues pour les messageries de scanner les chats privés. Mais les obligations prévues pour les services d'hébergement qui stockent des contenus de tiers pour le compte de leurs utilisateurs ne résistent pas non plus à un examen approfondi des droits fondamentaux.

Les services d'hébergement comprennent ceux qui mettent des contenus de tiers à la disposition du public (plateformes telles que YouTube, services d'hébergement de sites web publics) ainsi que ceux qui offrent à leurs clients un stockage privé dans le cloud (Dropbox, iCloud Drive). Il s'agit également de services dont le contenu n'est accessible qu'à un groupe fermé de personnes (comptes privés sur Twitter, groupes fermés sur Facebook, hébergeurs de sites web d'entreprises à accès restreint).

Dans la mesure où les obligations prévues pour les fournisseurs d'hébergement concernent des contenus non publics, les menaces pour la vie privée et la liberté d'expression décrites aux points 1 et 2 sont également pertinentes pour les services d'hébergement. En outre, il existe des problèmes spécifiques : bon nombre des garanties procédurales en matière de droits fondamentaux envisagées pour les injonctions de détection peuvent finir par être totalement éludées dans le cas des services d'hébergement. Cela est dû aux différentes règles de confidentialité pour les communications sur les messageries d'une part et les services d'hébergement d'autre part.

Les services d'hébergement (y compris les fournisseurs de stockage dans le cloud privé tels que Google Drive ou Dropbox) peuvent non seulement être tenus d'analyser les contenus privés en vertu du règlement sur le contrôle des bavardages, mais ils peuvent aussi le faire volontairement. Le règlement sur le contrôle des chats stipule que tous les fournisseurs de services doivent d'abord procéder à leur propre analyse des risques pour déterminer si leurs services présentent un risque d'utilisation abusive à des fins de violence sexuelle à l'encontre d'enfants.

Ce n'est que si les autorités estiment qu'un fournisseur de services répond à cette analyse de risque par des mesures volontaires insuffisantes qu'elles imposeront un ordre de détection. Dans le cadre de ces mesures volontaires, les fournisseurs de services d'hébergement peuvent avoir recours à des filtres sujets aux erreurs pour surveiller les téléchargements privés des utilisateurs. Dans ce scénario, il n'y a pas de contrôle public de l'impact de ces mesures sur les droits fondamentaux des utilisateurs.

À cet égard, les services d'hébergement diffèrent des services de messagerie : Les programmes de messagerie et de courrier électronique tels que Whatsapp, Signal ou ProtonMail relèvent de la directive "vie privée et communications électroniques", qui interdit en principe à ces fournisseurs de services de surveiller le contenu des communications privées de leurs utilisateurs. Une dérogation temporaire à cette interdiction, qui soulève elle-même de sérieuses questions en matière de droits fondamentaux, doit être remplacée par le règlement sur le contrôle des chats.

Après l'entrée en vigueur de ce règlement, les messageries et les fournisseurs de services de courrier électronique ne pourront accéder au contenu des communications privées que sur la base d'un ordre de détection. Pour les fournisseurs d'hébergement tels que le stockage privé dans le cloud, en revanche, la directive e-Privacy avec son interdiction de surveiller les communications privées ne s'applique pas.

Pour les fournisseurs d'hébergement, il sera régulièrement intéressant d'éviter une injonction de détection imminente par des mesures "volontaires". De cette manière, les entreprises conservent un plus grand contrôle, y compris sur les coûts. Il y a une forte incitation à éviter des mesures coûteuses pour protéger les droits fondamentaux des utilisateurs. Il est donc probable que les services d'hébergement déploient "volontairement" des programmes de filtrage sujets aux erreurs sans les garanties procédurales prévues pour les injonctions de détection des autorités.

Avant d'imposer une ordonnance de détection, une autorité doit évaluer le risque posé par le service par rapport à l'interférence avec les droits fondamentaux des utilisateurs. À cet égard, la Cour européenne de justice a fixé des limites étroites à l'utilisation obligatoire des systèmes de filtrage. Celles-ci ne sont compatibles avec l'interdiction des obligations générales de surveillance que si les filtres fonctionnent de manière si irréprochable que les fournisseurs de services n'ont pas à procéder à une "évaluation indépendante du contenu" afin d'écarter les faux positifs.

Les systèmes de filtrage sont incapables de satisfaire aux normes de la Cour, du moins en ce qui concerne les représentations inconnues de violence sexuelle à l'encontre d'enfants et le "grooming". Si un service d'hébergement filtre "volontairement" les contenus dans le cadre de son obligation de minimiser les risques, il n'y a pas d'évaluation publique de la compatibilité des systèmes de filtrage avec les droits fondamentaux des utilisateurs. En conséquence, des utilisateurs innocents peuvent se voir bloquer leur compte par inadvertance, voire être dénoncés à tort aux autorités chargées de l'application de la loi.

Les obligations de blocage de sites web nécessitent une surveillance des internautes

Le projet de règlement prévoit des obligations de blocage pour les fournisseurs d'accès à l'internet en ce qui concerne les sites web individuels (URL). Avant qu'une autorité n'émette une ordonnance de blocage, elle doit exiger des fournisseurs d'accès à l'internet qu'ils lui fournissent des informations sur l'accès des utilisateurs à l'URL en question.

Pour pouvoir collecter les informations nécessaires sur l'accès à des URL individuels et les transmettre aux autorités, les fournisseurs d'accès à l'internet devraient surveiller le comportement de navigation de tous leurs clients de manière préventive et exhaustive. Une telle surveillance serait toutefois incompatible avec l'interdiction des obligations générales de surveillance et avec le droit fondamental au respect de la vie privée.

En outre, ces informations sont techniquement inaccessibles aux fournisseurs d'accès à l'internet si l'URL est criffrée à l'aide du protocole https. Presque tous les sites web utilisent désormais le protocole https pour garantir que, par exemple, les données relatives à l'adresse ou à la carte de crédit que les utilisateurs saisissent dans les formulaires web sont transmises sous forme chiffrée. L'utilisation généralisée du protocole https est recommandée par l'Office fédéral de la sécurité de l'information.

Le blocage ciblé d'URL individuels est également impossible pour les fournisseurs d'accès à l'internet sans abandonner le crhiffrement https et surveiller le contenu des activités en ligne de leurs utilisateurs. Le blocage de sites web basé sur le DNS n'est pas adapté au blocage planifié d'URL individuels, car le blocage DNS affecte toujours des domaines entiers. Un blocage DNS dirigé contre un fichier individuel sur une plateforme d'hébergement de partage affecterait également tous les autres contenus hébergés par le même hébergeur de partage et ne répondrait donc pas à l'exigence de la Cour européenne de justice selon laquelle le blocage de sites web doit être strictement ciblé.

Dans la pratique, il existe donc un risque considérable que les fournisseurs d'accès à l'internet se conforment de manière excessive aux ordonnances de blocage, au détriment de la liberté d'expression et d'information des utilisateurs, en utilisant le blocage DNS pour bloquer l'accès à un domaine entier. Ou bien ils tenteront de mettre en œuvre un blocage plus ciblé et de surveiller le comportement de navigation de leurs clients, tout en sacrifiant la sécurité des communications en ligne via le criffrement https.

La vérification de l'âge met en danger la liberté de communication

Le projet de règlement stipule que tous les fournisseurs de services de messagerie et de courrier électronique qui risquent d'être utilisés à des fins de toilettage doivent vérifier l'âge de leurs utilisateurs. Le risque identifié ne doit pas être significatif - l'obligation de mettre en œuvre la vérification de l'âge s'appliquerait donc en principe à tous les services de courrier électronique et de messagerie qui permettent la communication entre mineurs et adultes. En outre, l'obligation de vérification de l'âge s'applique également à tous les fournisseurs de magasins d'applications. Ils doivent également empêcher les utilisateurs mineurs de télécharger des applications qui présentent un risque important d'être utilisées à des fins de manipulation psychologique.

Les fournisseurs de services peuvent choisir entre des méthodes d'évaluation de l'âge (par exemple, l'analyse faciale basée sur l'IA, comme celle déjà utilisée par Instagram) et des méthodes de vérification de l'âge (à l'aide d'un document d'identité ou d'une preuve d'identité numérique). Ces deux procédures sont extrêmement intrusives pour les utilisateurs.

La vérification de l'âge au moyen de documents d'identité est proche d'interdire l'utilisation anonyme d'internet. L'analyse faciale assistée par l'IA, quant à elle, est souvent confiée par les fournisseurs de services à des entreprises externes, ce qui laisse aux utilisateurs peu de contrôle sur le traitement de ces données personnelles particulièrement sensibles. Si la technologie se trompe, les jeunes adultes peuvent également être exclus de l'utilisation de certaines applications. Les personnes qui ne possèdent pas de documents d'identité ou qui ne veulent pas confier leurs données biométriques à une entreprise sont exclues de technologies de communication cruciales.

Il n'est guère possible d'utiliser un smartphone moderne sans magasin d'applications. Se passer de services de messagerie est également déraisonnable, surtout pour les personnes qui, pour de bonnes raisons, attachent une importance particulière à l'utilisation anonyme de l'internet (dénonciateurs, victimes de harcèlement, personnes politiquement persécutées). Contrairement aux fournisseurs de services, les utilisateurs ne peuvent pas toujours choisir entre différentes procédures de vérification de l'âge.

Pour les utilisateurs mineurs (en particulier les adolescents), leurs droits fondamentaux à la liberté d'expression et d'information sont gravement restreints si les magasins d'applications refusent catégoriquement de leur permettre d'installer certaines applications sans mettre ces droits en balance avec le risque que l'application représente pour les utilisateurs mineurs. En raison de la forte concentration du marché dans ce domaine, les possibilités de passer à un autre magasin d'applications sont limitées.

Source : GFF (The Society for Civil Rights)

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous que ces arguments de la GFF contre le Chat Control sont crédibles ou pertinentes ?

Voir aussi :

Chat Control : les utilisateurs refusant une analyse intrusive ne pourront pas partager des photos et des liens. La France renoncerait à son veto et la loi pourrait encore être approuvée par l'UE

Lettre ouverte de Tuta appelant les États membres de l'UE à défendre le chiffrement. Les États membres de l'UE doivent décider de leur camp : vie privée ou surveillance

Laissez-vous surveiller : les gouvernements de l'UE sont susceptibles d'approuver ChatControl dès le mois de juin et ainsi ouvrir la voie à une surveillance de masse que des acteurs comme Signal dénoncent

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert éminent https://www.developpez.com
Le 20/06/2024 à 15:10
il me vient une petite reflection la dessus.
Les médias mainstream nous disent H24 et aussi le président de la république dans ces propagandes quotidienne à la télé, nous rappelle que l'extreme droite fait peur c'est dangereux, que Poutine aussi fait peur.
Qu'ils sont aux portes du pouvoir.
Si ils sont si dangereux que cela, pourquoi promulguer des lois pareils qui ne feront que renforcer leurs pouvoir ? alors que comme le rappelle la presse "ils sont au porte du pouvoir".
Pourquoi vouloirs mettre en place des lois similaires à ce que fait Poutine ? pourquoi faire comme Poutine alors que nous on est le camps du bien donc on est censé le combattre ?

Pourquoi l'union européenne propose des lois similaire au méchant Poutine que nous combattons de toute nos force bien évidement ?
pour aller au bout de la réflexion, qu'en pense Zelensky ? ah lui a supprimé les élections.
Bon qu'en pense la Palestine puisque je vois plus de ces drapeaux dans la rue que des drapeaux français ?
bon j’arrête le demi troll

J'imagine bien dans la continuité, des futurs lois pour par exemple détecter dans les sms ceux qui voterait extrême droite (car ce sont des gens très dangereux) et pourquoi pas par la suite les privé de vote, ou le mettre une mauvaise note en credit social, ou les déportés aux rwanda
Apres tous un fiché S en France c'est pas forcément un terroriste islamiste, ca peut etre un simple contestataire politique ou un journaliste.
9  0 
Avatar de
https://www.developpez.com
Le 28/10/2024 à 23:58
La création d'image interdite via ne pourra jamais être empéchée, que cela concerne les pedos ou le terros.
Du moment où un IA connait des notions similaire ou proche, les mesures de sécurité seront toujours contournable.

Mon point de vue c'est qu'on pousse à nous inciter à accepter toujours plus de flicage sous n'importe quel prétexte, mais pourquoi ? Une finalité sans doute inavoué de nos dirigeants ?

Enfin je rappel que n'importe qui avec un crayon et une feuille peut potentiellement faire quelque chose d'interdit, idem avec un simple logiciel.
Doit-on mettre des numéros d'immatriculation sur les feuilles et les crayons ? Doit-on intégrer des logiciels espions dans tout nos machines ? Faut-il sacrifier sa vie privé ? Non !
Pouvoir faire quelque chose d'illégal, ne signifie pas que la personne le fait : Ce n'est jamais une excuse pour instaurer une surveillance de masse !
8  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 03/09/2024 à 14:25
le plus simple serait d'imposer un système universelle.

1) pour les sites exclusivement pour adulte l'obligation d’être sur un nom de domaine pour adulte uniquement (xxx.adult par exemple)
2) la création d'une une balise html <adult>
3) pour les sites avec un peu de tous comme youtube/les réseaux sociaux, chaque postes/vidéos devrait avoir un tag "adult_only" ou pas, tag accessible dans le code html.
Ainsi il serait assez simple d'implémenter un filtre parentale universelle.

et on en reste la niveau législatif, pas la peine d'essayer de pondre une usine a gaz pour prouver qu'on a plus de 18ans avec des données importante (carte d'identité) qui vont inévitablement fuité un jours ou l’autre.
6  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 18/06/2024 à 20:09
Si ça continue, demain nous utiliserons les mêmes produits anti-censure que dans les pays comme la Chine.
5  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 19/06/2024 à 16:24
S'imaginer que les démocraties Européennes veulent appliquer de la surveillance de masse sur leur citoyens relève du complotisme.

5  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 29/10/2024 à 10:57
Citation Envoyé par Fagus Voir le message
Merci à la justice d'utiliser ses ressources pour lutter contre des images générée de pédophilie. Les clients seront obligés de se rabattre sur des images réelles.

Ceci est un commentaire provocateur, mais l'IA générative de pornographie est-elle vraiment un problème ?

Ya un article Le passage à l’acte pédophile et les enjeux psychopathologiques du téléchargement : un virtuel protecteur ? la réponse serait : ça dépend des gens... on est que moyennement avancé.

Mais globalement peut être qu'on pourrait passer d'un modèle axé sur le soin plus que la répression. Déjà les pédophiles ne seraient pas obligés de se cacher, on les aurait dans le viseur pour les empêcher de fauter, et si c'est incurable, ça me choquerait pas qu'ils s’adonnent sur des images virtuelles plutôt que sur des commandes d'images réelles...
pour moi le plus important c'est de détruire les réseaux de traffics d'enfants, a partir de la, fantasmer dans sa tête sur des enfants, les dessinés, en faire des hentai ou les généré par ia, ca reste pas très grave et limite temps que ca reste secret..., on ne peut empêcher une femme ou un homme de rêver d'un enfant a poile la nuit.

c'est une trouble mental c'est sur, mais tant que ca reste de la consommation de contenue factice.

il y'a des catégories de porno sur des cadavres ou sur la torture ou sur le meurtre pendant l'acte, ces vidéos sont simulé avec des acteurs et sont légales. Pourtant tuer quelqu'un est illégale.
Il y'a des films d'Hollywood d'ailleurs ou il y'a des scenes de meurtre pendant l'acte sexuel.

Es ce que fantasmer d'enfant a poile est plus grave que de fantasmer de tuer quelqu'un pendant l'acte ou de se taper sa grand mere dans la tombe ?
ca reste une zone d'ombre pénalement, car les vidéos d'actrices maquillé jeune et en costume de collégienne de 15ans, c'est pas ca qui manque sur l'internet légale.
5  0 
Avatar de Médinoc
Expert éminent sénior https://www.developpez.com
Le 19/06/2024 à 14:59
Donc l'analyse de la CEDH, finalement ils s'en foutent?
4  0 
Avatar de J_P_P
Membre du Club https://www.developpez.com
Le 02/07/2024 à 13:06
Pour nos hats fonctionnaires européens il est indispensable d'établir un moyen d'espionner les citoyens, il faut absolument que ces messieurs-dames puisse suivre les pensées des habitants pour mieux les contrôler et les "profiler" pour meieux contrôler la population. Eux seuls sont aptes à comprendre le monde et ils ne peuvent laisser les simples citoyens parler de tout et de rien sans s'assurer qu'ils restent dans "la bonne pensée".
4  0 
Avatar de yocoy22415
Futur Membre du Club https://www.developpez.com
Le 20/11/2024 à 17:02
Aussi choqué que de lire qu'un directeur apprenant que du (quasi) porno infantile IA se diffuse dans son établissement ne lève pas le doigt pour agir contre.
Malheureusement, même en France ce genre de chose peut arriver.
Il y a de ça 3 ans, des confrères professeurs, niveau collège,
me racontait avoir pris connaissances d'affaire de chantage et de pornographie, infantile entre collégien,
sur un réseau (Snapchat il me semble).
Le directeur n'a pas souhaité intervenir.
Pire, lorsque mes confrères ont été alerté les autorités, ont leurs que rien n'était possible
tant qu'il n'y a pas un des parents des victimes n'ont pas été déposé une plainte.
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/06/2024 à 23:45
Citation Envoyé par Ryu2000 Voir le message
Il y a déjà pas mal de monde qui ont un abonnement VPN pour ne pas se faire prendre par Hadopi. (chez certains fournisseurs de VPN il y a des histoires de proxy Socks5)

Il est évident que le but réel est de contrôler tous les citoyens.
Mouais, sauf qu'avec TunnelVision, VPN ou pas, ton fournisseur d'accès pourra voir tout ce qu'il veut dès lors que c'est ta box Internet qui te sert de DHCP...

Et je ne parle même pas de cochonneries à la Recall.

Citation Envoyé par Ryu2000 Voir le message
Il n'y a quasiment pas de lutte contre les réseaux pédophiles.
J'ai récemment vu des vidéos de Karl Zéro, il y a une histoire avec un policier belge et il y a une histoire avec Marc Dutroux.
La justice n'a pas cherché à remonter dans le réseau, elle a tout mis sur le dos d'un gars, qui n'était qu'un petit rouage dans une machine énorme, il n'y a pas que Marc Dutroux qui mérite d'être condamné.
Il parait que dans le réseau il y avait des fonctionnaires haut gradés.
Il y a des gens très puissants qui sont pédophiles. (Epstein et ses potes par exemple)
Oui. Il y a aussi les histoires de l'orphelinat aux îles Jersey, avec la justice Britannique qui continue de protéger les agresseurs, plusieurs décennies après - sans doute parce qu'il y avait le gratin de la TV, de la noblesse, etc.
3  0