L'annonce faite par le Président Emmanuel Macron, concernant une potentielle interdiction de l'accès aux réseaux sociaux pour les moins de 15 ans en France, a résonné avec une intensité particulière dans le débat public. Cette déclaration intervient dans un contexte d'émotion nationale, faisant suite à l'arrestation d'un collégien après le meurtre d'une surveillante à Nogent, en Haute-Marne. Le Président a rapidement mis en cause la responsabilité des réseaux sociaux dans cet acte, soulignant leur influence jugée néfaste sur le comportement des jeunes.La France, le Danemark et la Grèce font pression en faveur d'une limite d'âge européenne pour l'accès aux médias sociaux, mais la Commission européenne semble réticente à l'idée d'en instaurer une.
Emmanuel Macron a déclaré qu'il s'était donné « quelques mois » pour convaincre l'UE. « Si cela ne fonctionne pas, nous commencerons à le faire en France. Nous ne pouvons pas attendre ». Cette conditionnalité révèle une volonté d'harmonisation à l'échelle de l'Union européenne, tout en affirmant la détermination française à agir unilatéralement si le consensus tarde.
« Nous vivons dans une société de plus en plus violente. Comment en sommes-nous arrivés là ? J'ai quelques explications », a déclaré Macron, qui a mis cette tendance sur le compte d'une génération d'adolescents ayant grandi avec « TikTok, X et Instagram ».
Il a déclaré que les plateformes pourraient utiliser des systèmes de reconnaissance faciale ou des contrôles de cartes d'identité pour déterminer l'âge de leurs utilisateurs.
Cette proposition s'inscrit dans une préoccupation plus large et de longue date concernant l'impact des écrans et des plateformes numériques sur la santé mentale et la sécurité des jeunes. Des données alarmantes, telles qu'une augmentation de l'addiction (11% des adolescents en 2022 contre 7% quatre ans auparavant, selon l'Organisation Mondiale de la Santé), ainsi que l'exposition à des contenus inappropriés (pornographie, cyberharcèlement, désinformation), alimentent cette inquiétude croissante. Le fait que l'annonce présidentielle soit explicitement liée à un événement tragique et très médiatisé, comme le drame de Nogent, confère une impulsion politique forte à une question qui était déjà au cœur des débats. Cette dynamique montre comment un incident singulier peut servir de catalyseur puissant pour des actions politiques visant à résoudre des problèmes systémiques de longue date.
La question de l'âge minimum d'accès aux réseaux sociaux soulève des défis complexes. Parmi eux, la faisabilité technique de la vérification de l'âge, la compatibilité avec les droits fondamentaux des enfants, et la nécessité d'une approche éducative complémentaire sont des points cruciaux. Le présent article se propose d'examiner en profondeur le cadre législatif français existant, les motivations derrière la nouvelle proposition, la dynamique européenne en matière de protection des mineurs en ligne, et les expériences d'autres pays confrontés à des défis similaires.
La loi sur la majorité numérique de 2023 : principes et limites
La France n'est pas novice en matière de régulation des plateformes numériques et de protection des mineurs. Une législation spécifique, la « Loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne », a déjà été adoptée. Cette loi fixe à 15 ans l'âge minimum à partir duquel un adolescent peut s'inscrire seul sur un réseau social. En deçà de cet âge, le consentement parental est requis pour la création d'un compte.
La loi de 2023 impose théoriquement aux plateformes de déployer des solutions techniques pour vérifier l'âge de leurs utilisateurs. Elle offre également aux parents la possibilité de demander la suspension du compte de leur enfant de moins de 15 ans. En outre, elle rend obligatoire la diffusion de messages de prévention contre le cyberharcèlement sur les plateformes, incluant la promotion du numéro vert 3018, un dispositif d'aide et de signalement. Un rapport sur la santé des enfants surexposés en ligne est également prévu par cette législation.
Cependant, l'efficacité de cette loi est largement remise en question dans la pratique. Une enquête de la CNIL (Commission Nationale de l'Informatique et des Libertés) réalisée en 2021 révélait que la première inscription sur un réseau social surviendrait en moyenne autour de 8 ans et demi, et que plus de 50% des adolescents âgés de 10 à 14 ans auraient déjà un profil en ligne. Cette situation met en évidence une déconnexion notable entre l'intention législative et la réalité de l'application sur le terrain. L'obligation de contrôle, bien que votée, n'est pas encore pleinement entrée en vigueur, créant une lacune critique dans la protection des jeunes. Cela signifie que la proposition actuelle d'Emmanuel Macron ne vise pas seulement à introduire une nouvelle limite d'âge, mais surtout à combler le vide en matière d'application effective de la loi existante, en exerçant une pression accrue sur les plateformes et l'Union européenne pour qu'elles trouvent et mettent en œuvre des solutions concrètes de vérification de l'âge.
Le gouvernement français, conscient de ces limites, a exprimé sa volonté de renforcer l'arsenal juridique et de pousser pour une solution européenne. Néanmoins, il se déclare prêt à agir seul si un consensus européen n'est pas rapidement atteint.
Le rôle du Digital Services Act (DSA) et du RGPD dans la protection des enfants
La protection des mineurs en ligne est un enjeu majeur au niveau européen, encadré par des législations fondamentales. La loi européenne sur les services numériques (Digital Services Act, DSA), entrée en vigueur en 2023 et applicable aux plateformes depuis février 2024, établit un cadre clair en matière d'âge. L'Article 28 du DSA exige spécifiquement des fournisseurs de plateformes accessibles aux mineurs de mettre en place des mesures appropriées et proportionnées pour garantir un haut niveau de confidentialité, de sécurité et de sûreté pour les enfants. Il interdit également la publicité ciblée basée sur le profilage des données personnelles des mineurs, renforçant ainsi leur protection.
Parallèlement, le Règlement Général sur la Protection des Données (RGPD) joue un rôle crucial. Il prévoit que le traitement des données à caractère personnel d'un enfant est licite lorsque l'enfant est âgé d'au moins 16 ans, tout en laissant la possibilité aux États membres de fixer un âge compris entre 13 et 16 ans. Cette flexibilité a conduit à une « majorité numérique » variable à travers l'Europe : la France a opté pour 15 ans, tandis que l'Allemagne et les Pays-Bas ont choisi 16 ans, et d'autres pays comme la Belgique, les pays nordiques, le Royaume-Uni, l'Irlande et l'Espagne ont retenu 13 ans.
La Commission européenne a continué à développer ce cadre, en publiant le 13 mai 2025 un projet de lignes directrices sur la protection des mineurs en ligne dans le cadre du DSA. Ces directives couvrent un large éventail de mesures, incluant la vérification de l'âge des utilisateurs, l'amélioration des systèmes de recommandation de contenu pour réduire l'exposition aux contenus préjudiciables, la mise en privé par défaut des comptes d'enfants, et l'établissement de bonnes pratiques pour une modération de contenu adaptée aux enfants. Ces lignes directrices, ouvertes à la consultation publique jusqu'au 10 juin 2025, devraient être adoptées avant l'été 2025.
Cette tension entre l'harmonisation européenne et la souveraineté nationale est manifeste. Si le DSA et le RGPD posent une base solide à l'échelle de l'UE pour la protection des mineurs et la confidentialité des données, la flexibilité accordée par l'Article 8 du RGPD a entraîné une fragmentation des âges de la « majorité numérique » à travers les États membres. Ce morcellement complique non seulement la conformité pour les plateformes, mais aussi l'application des règles pour les autorités nationales, créant une mosaïque réglementaire plutôt qu'un marché numérique unifié pour la protection de l'enfance. La pression de la France pour une interdiction à l'échelle de l'UE est une tentative d'imposer une harmonisation plus poussée au-delà de la portée actuelle du DSA, en particulier sur la vérification de l'âge. La « menace » d'une action unilatérale est une tactique pour surmonter l'inertie des variations nationales et les complexités inhérentes à l'obtention d'un consensus entre 27 États membres, soulignant les défis politiques d'une intégration européenne plus profonde en matière de politique numérique.
Panorama international : expériences et approches comparées
L'Australie : une interdiction stricte et ses conséquences
L'Australie a adopté une approche particulièrement stricte en matière de régulation de l'accès des mineurs aux réseaux sociaux. Fin 2024, le pays a voté une loi interdisant l'accès aux plateformes comme TikTok, Facebook, Instagram ou X (anciennement Twitter) aux moins de 16 ans. Cette législation, qui doit entrer en application en novembre 2025, est l'une des plus rigoureuses au monde et prévoit des amendes pouvant atteindre 30 millions d'euros pour les plateformes en cas de non-respect. La mesure aura un effet rétroactif, entraînant l'annulation des comptes existants, et ne permettra aucune exemption basée sur le consentement parental.
Cependant, le gouvernement australien a délibérément laissé un « flou » sur les modalités précises de vérification de l'âge, reconnaissant « qu'aucun pays dans le monde n'a résolu ce problème ». Bien que les plateformes se soient engagées à collaborer, le texte de loi manque de détails concrets sur ces modalités.
Cette loi australienne a suscité de vives critiques. Certains experts estiment qu'elle cible mal le problème de fond, ignore les effets positifs que les réseaux sociaux peuvent avoir (notamment en termes de socialisation), et pourrait, de manière paradoxale, isoler les enfants ou les pousser vers des sites moins régulés et potentiellement plus dangereux. Les adolescents australiens eux-mêmes ont exprimé leur conviction qu'ils trouveront des moyens de contourner la loi. Elon Musk, PDG de X, a qualifié cette mesure de « contrôle inacceptable de l'internet australien ».
Autres modèles de régulation : Chine, Royaume-Uni, Allemagne, Irlande
Au-delà de l'Australie, plusieurs autres pays ont mis en place ou envisagent des régulations pour protéger les mineurs sur les réseaux sociaux, chacun avec des approches distinctes :
La Chine : Le modèle chinois se distingue par son niveau de contrôle étatique. Les moins de 14 ans ne peuvent pas passer plus de 40 minutes par jour sur Douyin (la version chinoise de TikTok), et l'accès est soumis à une vérification d'identité stricte. Ce modèle de contrôle centralisé, avec des exigences d'identification rigoureuses, facilite la vérification de l'âge et l'application des limites de temps. Cependant, il soulève des questions fondamentales sur la vie privée et les libertés individuelles qui sont difficilement transposables dans les démocraties occidentales. Il démontre néanmoins qu'une vérification d'âge rigoureuse est techniquement possible avec une volonté politique suffisante et un cadre légal moins contraignant en matière de collecte de données.
Le Royaume-Uni : Le gouvernement britannique envisage une interdiction des médias sociaux pour les moins de 16 ans si les entreprises technologiques ne...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

À quel point les réseaux sociaux sont-ils réellement responsables de la montée des violences chez les jeunes ?