Le Parlement européen a appelé l'Union européenne à fixer un âge minimum pour l'accès des enfants aux réseaux sociaux afin de lutter contre l'augmentation des problèmes de santé mentale chez les adolescents due à une exposition excessive. La résolution du Parlement, soutenue par 483 voix contre 92 et 86 abstentions, demande une interdiction à l'échelle de l'UE de l'accès des enfants de moins de 16 ans aux plateformes en ligne, aux sites de partage de vidéos et aux compagnons IA sans le consentement parental, ainsi qu'une interdiction totale pour les moins de 13 ans.Juillet 2025, la Commission européenne a déclaré que les pays pouvaient mettre en œuvre leurs propres interdictions nationales pour les mineurs sur les médias sociaux, dans de nouvelles lignes directrices adoptées dans le cadre de sa puissante loi sur les services numériques. Les nouvelles lignes directrices de la Commission sur la protection des mineurs en ligne visent à garantir que les plateformes soient soumises à un ensemble de règles similaires dans toute l'Europe dans le cadre de la DSA, le règlement historique de l'Union européenne sur les médias sociaux. La Commission a également publié les spécifications techniques d'une application de vérification de l'âge qui pourrait aider à vérifier si les utilisateurs ont plus de 18 ans en utilisant des pièces d'identité et même la reconnaissance faciale.
Cette position de la Commission européenne faisait suite à une annonce faite par le Président Emmanuel Macron en juin, concernant une potentielle interdiction de l'accès aux réseaux sociaux pour les moins de 15 ans en France. L'annonce a résonné avec une intensité particulière dans le débat public. Une déclaration qui intervient dans un contexte d'émotion nationale, faisant suite à l'arrestation d'un collégien après le meurtre d'une surveillante à Nogent, en Haute-Marne. Le Président a rapidement mis en cause la responsabilité des réseaux sociaux dans cet acte, soulignant leur influence jugée néfaste sur le comportement des jeunes.
Récemment, le Parlement européen a appelé l'Union européenne à fixer un âge minimum pour l'accès des enfants aux réseaux sociaux afin de lutter contre l'augmentation des problèmes de santé mentale chez les adolescents due à une exposition excessive. La résolution du Parlement, soutenue par 483 voix contre 92 et 86 abstentions, demande une interdiction à l'échelle de l'UE de l'accès des enfants de moins de 16 ans aux plateformes en ligne, aux sites de partage de vidéos et aux compagnons IA sans le consentement parental, ainsi qu'une interdiction totale pour les moins de 13 ans.
Cet appel, qui n'est pas contraignant, intervient alors que l'Australie s'apprête à instaurer la première interdiction au monde des réseaux sociaux pour les enfants de moins de 16 ans et que le Danemark et la Malaisie envisagent également des interdictions. Les effets des réseaux sociaux sur la santé et la sécurité des enfants sont devenus une préoccupation mondiale croissante, des entreprises telles que TikTok, Snapchat, Google et Meta Platforms - l'opérateur de Facebook, Instagram et WhatsApp - faisant l'objet de poursuites judiciaires aux États-Unis pour leur rôle dans l'aggravation d'une crise de santé mentale.
« Nous sommes en pleine expérience, une expérience dans laquelle les géants technologiques américains et chinois ont un accès illimité à l'attention de nos enfants et de nos jeunes pendant des heures chaque jour, presque sans aucun contrôle », a déclaré la députée danoise Christel Schaldemose, auteur de la résolution, lors d'un débat au Parlement. Schaldemose a déclaré que parmi les responsables de cette expérience figuraient le patron de X, Elon Musk, Marc Zuckerberg de Meta, le Parti communiste chinois et « leurs représentants technologiques chez TikTok ».
La résolution du Parlement demande également l'interdiction des « loot boxes », ces objets virtuels qui peuvent être gagnés ou achetés avec de l'argent réel, et des algorithmes de recommandation basés sur l'engagement pour les mineurs, ainsi qu'une législation exigeant une conception de contenu adaptée à l'âge. « Avec ce rapport, nous tirons enfin un trait. Nous disons clairement aux plateformes : « Vos services ne sont pas conçus pour les enfants et l'expérience s'arrête ici » », a déclaré Schaldemose.
Âge minimum pour les réseaux sociaux
Afin d'aider les parents à surveiller les activités en ligne de leurs enfants et de garantir que les contenus qu'ils consultent en ligne sont adaptés à leur âge, le Parlement a proposé une limite d'âge numérique européenne harmonisée de 16 ans pour accéder aux réseaux sociaux, aux plateformes de partage de vidéos et aux assistants générés par l'intelligence artificielle. Les mineurs âgés de 13 à 16 ans pourraient y avoir accès avec le consentement de leurs parents.
Soutenant les travaux de la Commission visant à développer une application européenne de vérification de l'âge et une identité numérique européenne, les députés soulignent que les systèmes de vérification doivent être précis et protéger la vie privée des mineurs. Ces systèmes ne dispensent pas les plateformes en ligne de leur responsabilité de veiller à ce que leurs produits soient sûrs et adaptés à l'âge des utilisateurs, ajoutent les députés.
Afin d'encourager un meilleur respect de la loi sur les services numériques et d'autres réglementations pertinentes, les députés proposent que les cadres supérieurs soient tenus personnellement responsables en cas de non-respect grave et persistant, notamment en ce qui concerne la protection des mineurs et la vérification de l'âge.
Une action plus ferme de la part de la Commission
Le Parlement a également demandé :
- l'interdiction des pratiques les plus nocives et addictives et la désactivation automatique d'autres fonctionnalités addictives (notamment le défilement infini, la lecture automatique, le rafraîchissement par glissement, les récompenses d'utilisation et la gamification nocive) pour les mineurs
- l'interdiction des plateformes qui ne respectent pas les règles de l'UE
- des mesures visant à limiter les technologies persuasives telles que la publicité ciblée, le marketing d'influence, la conception addictive et les « dark patterns » dans le cadre de la future loi sur l'équité numérique
- l'interdiction des systèmes de recommandation basés sur le profilage et l'engagement pour les mineurs
- l'application de la loi sur les services numériques aux plateformes vidéo en ligne et l'interdiction des « loot boxes » et autres éléments aléatoires du jeu, tels que les monnaies intégrées aux applications, les roues de la fortune et les mécanismes « pay-to-proceed »
- la protection des mineurs contre l'exploitation commerciale, notamment en interdisant aux plateformes d'offrir des incitations financières aux « enfants influenceurs »
- des mesures urgentes pour résoudre les dilemmes éthiques et juridiques liés aux produits d'intelligence artificielle générative, tels que les contenus falsifiés convaincants (deepfakes), les chatbots, les agents IA et les applications permettant de générer des photos de nudité (qui manipulent des photos sans consentement).
La rapporteure Christel Schaldemose a déclaré lors du débat : « Je suis fière de ce Parlement, qui nous permet de protéger ensemble les mineurs en ligne. Associées à une application stricte et cohérente de la loi sur les services numériques, ces mesures peuvent considérablement renforcer la protection des enfants. Nous fixons enfin des limites. Nous envoyons un message clair aux plateformes : vos services ne sont pas destinés aux enfants. Et l'expérience s'arrête là. »
Contexte
Le rapport cite des études montrant que 97 % des jeunes utilisent Internet tous les jours et que 78 % des répondants âgés de 13 à 17 ans consultent leurs appareils au moins une fois par heure. Dans le même temps, un mineur sur quatre utilise un smartphone de manière « problématique...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.