Procès sur la dépendance aux réseaux sociaux : les géants de la tech connaissaient et documentaient les risquesqu'ils ont choisi d'ignorer, quitte à transformer le cerveau des enfants en ressources publicitaires
Le procès ouvert ce février 2026 à Los Angeles contre Meta et Google représente un tournant historique dans la régulation du numérique. Pour la première fois, les architectes des plus grandes plateformes mondiales doivent répondre de leurs choix d'ingénierie devant un jury populaire. Derrière l'affaire judiciaire, c'est toute la mécanique de l'économie de l'attention qui est mise à nu : des algorithmes délibérément conçus pour maximiser l'engagement, quitte à sacrifier la santé mentale d'une génération entière.
Le 9 février 2026, devant le tribunal civil de Los Angeles, le procès de Meta et Google s'est ouvert sur une accusation directe : avoir « fabriqué l'addiction dans des cerveaux d'enfants ». L'avocat des plaignants, Mark Lanier, a martelé que ce mécanisme ne s'est pas produit « par accident mais à dessein », « parce que l'addiction est rentable ».
La plaignante principale, une Californienne de 20 ans dont l'affaire a été jugée suffisamment représentative pour servir de procédure test, soutient avoir développé une forte addiction aux réseaux sociaux qui l'ont entraînée dans une spirale de dépression, d'anxiété et de troubles de l'image de soi. Elle était utilisatrice de YouTube dès l'âge de six ans, puis d'Instagram à onze ans, avant de rejoindre Snapchat et TikTok quelques années plus tard.
Les débats ne portent pas sur les vidéos toxiques elles-mêmes (la section 230 du Communications Decency Act protégeant largement les plateformes pour les contenus tiers) mais sur la conception même de leurs algorithmes et les fonctions de personnalisation encourageant le visionnage compulsif. Ce choix stratégique des avocats est loin d'être anodin : en attaquant la design, et non le contenu, ils espèrent contourner l'immunité légale dont bénéficient jusqu'ici les grandes plateformes.
Les plaignants reprennent explicitement la stratégie menée avec succès contre l'industrie du tabac dans les années 1990 et 2000. Les avocats de Meta et YouTube ont d'ailleurs tenté, en vain, de faire interdire toute analogie avec les produits addictifs comme le tabac ou les opioïdes. L'analogie dérange, précisément parce qu'elle est structurellement fondée.
L'ingénierie de la dépendance dévoilée
Ce qui émerge des audiences, c'est la confirmation technique de ce que des chercheurs soupçonnaient depuis des années. Les faits présentés décrivent des mécanismes d'engagement directement inspirés des techniques issues du jeu d'argent : notifications, recommandations, flux continus. Ces dispositifs auraient été pensés pour prolonger le temps passé en ligne et renforcer l'addiction, notamment chez les plus jeunes.
Des documents internes de Meta ont été produits à l'audience, dans lesquels certains cadres de l'entreprise considéraient l'algorithme comme « absolument calibré pour maximiser l'engagement de la manière la plus dénuée de principes possible », avec des objectifs clairs d'augmentation du temps passé, y compris pour les enfants de moins de 13 ans.
La mécanique est bien connue des développeurs : le scroll infini supprime les points d'arrêt naturels, l'autoplay retire à l'utilisateur la décision de continuer, et les algorithmes de recommandation n'optimisent pas la pertinence mais la rétention. Les parties civiles s'appuient notamment sur une étude commandée par Instagram elle-même, soulignant les risques d'addiction chez les enfants ayant vécu des « événements traumatisants » et reconnaissant la faible efficacité des dispositifs de contrôle parental. En d'autres termes, Meta savait, avait documenté les risques, et avait continué.
L'avocate Laura Marquez-Garrett, du Social Media Victims Law Center, a fourni une illustration particulièrement saisissante devant le tribunal : un enfant cherchant des citations inspirantes sur TikTok se retrouve alimenté en contenus sur les ruptures et le suicide. Ce phénomène est documenté dans le « Projet MYST », des documents internes de Meta révélés lors du procès, qui montrent que les enfants ayant vécu des événements difficiles sont les plus exposés au risque de dépendance. Pour un adolescent fuyant une réalité douloureuse, les plateformes deviennent des amplificateurs de détresse plutôt que des refuges.
Frances Haugen : la voix de l'intérieur
Le témoignage de Frances Haugen, la lanceuse d'alerte qui avait remis en 2021 des dizaines de milliers de pages de documents internes de Facebook aux régulateurs américains et au Wall Street Journal, apporte une dimension supplémentaire au tableau. Son intervention le 19 février 2026 est particulièrement éclairante sur la culture organisationnelle de Meta.
Elle décrit une entreprise où l'équipe chargée de détecter les distributeurs de contenus pédopornographiques ou les prédateurs ciblant des enfants était si démunie en ressources qu'un seul ingénieur supplémentaire aurait multiplié son efficacité par dix. Mais c'est sur les arbitrages algorithmiques que son témoignage est le plus dévastateur : les équipes de Meta auraient identifié des modifications simples — comme l'absence de notifications nocturnes — qui réduisaient le stress des adolescents et amélioraient leur sommeil. Ces modifications ont été abandonnées parce qu'elles entraînaient une baisse d'utilisation d'environ 1 %.
Elle résume ainsi la philosophie interne de l'entreprise : « Ils se préoccupaient de la perception du public, pas de la santé réelle des enfants. » Les adolescents n'étaient envisagés que sous l'angle de leur capacité à faire venir leurs cadets et leurs parents sur la plateforme. Ce n'est pas une dérive marginale : c'est le modèle économique.
Zuckerberg à la barre : un interrogatoire inédit
Pour la toute première fois, le fondateur de Facebook a dû répondre de ses choix directement devant un jury, et non plus seulement devant des commissions parlementaires où les questions restent souvent sans conséquences réelles. La différence est majeure : un avocat adversaire peut relancer, creuser, confronter les déclarations aux pièces internes.
Lors de son témoignage le 18 février, Zuckerberg s'est tenu à un répertoire de réponses bien rodées, affirmant que sa « boussole » était de créer un produit apportant de la valeur aux utilisateurs, et que le temps passé sur les applications n'était selon lui « qu'un heureux sous-produit ». Une formulation soigneusement calibrée, qui contraste avec les emails internes versés au dossier dans lesquels il exhortait ses équipes à inverser le désengagement des plus jeunes sur Instagram.
Adam Mosseri, le directeur d'Instagram, avait témoigné quelques jours plus tôt dans un registre similaire, niant que les utilisateurs puissent développer cliniquement une addiction aux réseaux sociaux. Un choix sémantique stratégique : la dépendance comportementale n'est effectivement pas reconnue comme un diagnostic psychiatrique à part entière, ce qui permet aux plateformes de nier les faits en restant techniquement dans le vrai. Selon lui, une utilisation quotidienne de 16 heures ne constitue pas une addiction.
La question architecturale au cœur du débat juridique
Ce procès pose une question fondamentale pour toute l'industrie du logiciel : jusqu'où la responsabilité d'un développeur s'étend-elle sur l'usage de son produit ? L'issue pourrait se jouer sur une interprétation précise : les dommages sont-ils causés par le contenu des vidéos ou par le fait qu'elles soient sélectionnées par un algorithme, lancées automatiquement et diffusées indéfiniment ? Dans ce second scénario, Meta et YouTube perdraient leur immunité au titre de la section 230.
L'analogie avec l'automobile proposée par Marquez-Garrett est techniquement limpide : on n'interdit pas une voiture parce que certains conducteurs font des accidents, mais on peut condamner un constructeur qui a délibérément conçu un réservoir d'essence défectueux. Ici, le « défaut » serait inscrit dans le code : le scroll infini, la lecture automatique, les boucles de récompense à ratio variable empruntées aux machines à sous.
Des précédents à construire, une industrie à réformer
En l'absence de TikTok et de Snapchat, qui ont préféré transiger pour des montants confidentiels, seuls Meta et YouTube siègent en défense. Mais une défaite constituerait un précédent, ouvrant la voie à des condamnations similaires dans les milliers d'autres procédures en cours. En juin prochain, les deux entreprises feront face à une seconde vague : un procès fédéral regroupant des plaintes émanant de dizaines de districts scolaires et de procureurs généraux d'État.
La lanceuse d'alerte Frances Haugen formule les exigences techniques de manière concrète : permettre aux utilisateurs de ralentir leur algorithme, mettre en place des alertes quand un utilisateur consomme de plus en plus de contenus déprimants, offrir de véritables contrôles côté serveur — pas des minuteries décoratives que les adolescents apprennent à contourner en quelques semaines. « L'ère du faites-nous confiance doit prendre fin », dit-elle. « Nous avons besoin d'une véritable transparence algorithmique. »
Pour les professionnels de l'informatique, ce procès est un signal : les choix d'ingénierie ne sont pas neutres. Optimiser une métrique d'engagement sans considérer les effets de second ordre sur des cerveaux en développement relève d'une responsabilité que la loi commence à appréhender. L'affaire de Los Angeles pourrait bien devenir, pour l'industrie des plateformes numériques, ce que les procès contre les cigarettiers ont été pour le tabac : le moment où la société a décidé que certains modèles de profit ne pouvaient plus être tolérés.
Source : Democracy Now
Et vous ?
La comparaison avec l'industrie du tabac est-elle juste, ou les plateformes numériques sont-elles d'une nature si différente que l'analogie ne tient pas ? Un réseau social peut-il être intrinsèquement addictif, ou tout dépend-il de l'implémentation ?
Si l'on reconnaît la responsabilité des plateformes sur la conception de leurs algorithmes, où trace-t-on la ligne ? Doit-on interdire le scroll infini ? La lecture automatique ? Tout système de recommandation personnalisée ?
La section 230 du Communications Decency Act, bouclier légal historique des plateformes américaines, est-elle encore adaptée au monde numérique actuel ? Comment l'Europe se positionne-t-elle avec le DSA face à ces mêmes enjeux ?
Peut-on concevoir un modèle économique viable pour les grandes plateformes sans monétiser l'attention et le temps passé ? Ou la publicité ciblée rend-elle structurellement inévitable l'optimisation addictive ?
Les ingénieurs et développeurs qui ont codé ces algorithmes portent-ils une responsabilité individuelle ? Comment l'éthique professionnelle dans le secteur tech doit-elle évoluer face à ces révélations ?
Vous avez lu gratuitement 911 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
