IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La justice nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation
L'EFF estime que la police pourrait s'en servir

Le , par Stéphane le calme

7PARTAGES

4  0 
La justice nie avoir créé un programme de « surveillance de masse » des utilisateurs de ChatGPT en obligeant OpenAI à conserver les journaux de conversation,
pour l'EFF ce n'est qu'une question de temps avant que la police ne s'en serve

Une décision judiciaire rendue en juin 2025 vient de clarifier un point sensible dans l'affrontement juridique opposant OpenAI à plusieurs organes de presse : non, forcer l’entreprise à conserver les journaux de conversations des utilisateurs de ChatGPT ne revient pas à instituer un programme de surveillance de masse. Cette affirmation, avancée par les avocats d’OpenAI en réaction à une injonction judiciaire, a été balayée par la juge fédérale Ona T. Wang : elle a statué que la simple conservation des journaux d'activité, bien que potentiellement intrusive, ne constitue pas en soi un programme de « surveillance de masse » au sens juridique du terme.

L’affaire prend racine dans une plainte déposée par plusieurs médias, dont le New York Times, accusant OpenAI d’avoir utilisé illégalement leurs contenus protégés par le droit d’auteur pour entraîner ses modèles d’intelligence artificielle. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.

En mai, la juge Wang avait donc ordonné à OpenAI de ne pas effacer les échanges, même à la demande des utilisateurs, et de conserver tout contenu généré par ChatGPT via son site, ses apps et son API. Une décision que l’entreprise a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.

Une défense basée sur la vie privée… jugée infondée

Dans sa réponse, OpenAI a vivement critiqué l’ordonnance, allant jusqu’à déclarer que l’obligation de conserver toutes les conversations créait de fait un système de « surveillance de masse » injustifié. L’entreprise soutenait que cette conservation généralisée exposait des millions d’utilisateurs à une collecte involontaire et injustifiée de leurs données.

Mais pour la juge Wang, cette qualification est exagérée et juridiquement inexacte. Selon elle, l’injonction ne constitue pas un programme de surveillance actif, dans la mesure où OpenAI n’est pas tenue d’analyser, de surveiller ou de transmettre les contenus des utilisateurs à une autorité extérieure, mais simplement de les archiver temporairement à des fins judiciaires. Elle insiste sur le fait qu’il s’agit d’une obligation limitée, dans un contexte précis de litige, et non d’un mécanisme généralisé d’espionnage numérique.


Une tension entre transparence judiciaire et confidentialité utilisateur

Ce jugement soulève néanmoins une tension cruciale : peut-on concilier la nécessité pour les plaignants de préserver des preuves dans un procès avec le droit des utilisateurs à l’effacement de leurs données personnelles ? La position d’OpenAI, qui met en avant le respect de la vie privée de ses usagers, entre ici en conflit avec la volonté des médias de disposer de tous les éléments permettant de démontrer une éventuelle violation du droit d’auteur.

Techniquement, la tâche est aussi complexe que coûteuse : OpenAI affirme qu’elle n’a pas conservé certaines données précisément parce que les utilisateurs en avaient demandé la suppression. Répondre à l’injonction reviendrait à modifier sa politique de confidentialité, à complexifier la gestion de ses bases de données et à multiplier les risques juridiques.

Des utilisateurs s'en mêlent... sans succès

Après qu'un tribunal a ordonné à OpenAI de conserver « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées, de millions d'utilisateurs, deux utilisateurs paniqués ont tenté d'intervenir, sans succès. L'ordonnance visait à préserver des preuves potentielles dans le cadre d'un procès pour violation du droit d'auteur intenté par des organismes de presse.

En mai, la juge Ona Wang, qui a rédigé l'ordonnance, a rejeté la demande du premier utilisateur au nom de son entreprise, simplement parce que l'entreprise aurait dû engager un avocat pour rédiger le dossier. Plus récemment, Wang a rejeté une deuxième demande émanant d'un autre utilisateur de ChatGPT, et cette ordonnance est entrée dans les détails, révélant que la juge envisage de s'opposer à l'ordonnance avant les plaidoiries de cette semaine, qui ont été demandées de toute urgence par OpenAI.

La seconde demande d'intervention émane d'un utilisateur de ChatGPT nommé Aidan Hunt, qui a déclaré utiliser ChatGPT « de temps en temps », envoyant occasionnellement à OpenAI « des informations personnelles et commerciales hautement sensibles dans le cadre de l'utilisation du service ».

Dans son dossier, Hunt allègue que l'ordonnance de conservation de Wang a créé un « programme de surveillance de masse à l'échelle nationale » affectant et pouvant nuire à « tous les utilisateurs de ChatGPT », qui n'ont pas été avertis que leurs chats supprimés et anonymes allaient soudainement être conservés. Il a averti que l'ordonnance limitant la conservation aux seuls résultats de ChatGPT comportait les mêmes risques que l'inclusion des données des utilisateurs, puisque les résultats « révèlent intrinsèquement, et souvent reprennent explicitement, les questions ou les sujets introduits ».

Hunt a affirmé n'avoir appris que ChatGPT conservait ces informations (en dépit des politiques spécifiant qu'elles ne le feraient pas) qu'en tombant par hasard sur la nouvelle dans un forum en ligne. Estimant que ses droits au quatrième amendement et à une procédure régulière étaient violés, Hunt a cherché à influencer la décision du tribunal et a proposé une motion d'annulation de l'ordonnance selon laquelle l'ordonnance de Wang « exige effectivement des défendeurs qu'ils mettent en œuvre un programme de surveillance de masse affectant tous les utilisateurs de ChatGPT ».


Des craintes qui ne sont pas infondées, selon la directrice juridique de l'EFF

Les craintes de Hunt ne sont pas infondées, a déclaré Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques.

« L'ordonnance de divulgation pose de véritables risques pour la vie privée des utilisateurs en elle-même et en tant que précédent pour les nombreux autres procès intentés dans tout le pays », a déclaré McSherry. « Et elle est emblématique d'un problème plus large : les chatbots d'IA ouvrent un autre vecteur pour la surveillance des entreprises, en particulier si les utilisateurs n'ont pas de contrôle significatif sur ce qu'il advient de leur historique et de leurs enregistrements de chat. »

Selon Hunt, Wang n'a pas « envisagé d'exempter les "chats anonymes", dont on peut raisonnablement penser qu'ils contiennent les informations les plus sensibles et potentiellement dommageables des utilisateurs, de la conservation et de la divulgation dans cette affaire », affirmant que cela « constitue une action excessivement large et déraisonnable ».

Il a demandé au juge de réviser l'ordonnance afin d'y inclure cette exemption, ainsi que des exemptions pour tous les chats « discutant de sujets médicaux, financiers, juridiques et personnels qui contiennent des informations profondément privées sur les utilisateurs et n'ont aucun rapport avec les intérêts revendiqués par les organismes de presse plaignants ».

Pour Hunt et de nombreux autres utilisateurs pris au dépourvu par l'ordonnance, les enjeux semblent élevés. Il a suggéré que Wang aurait dû l'autoriser à intervenir « parce que cette affaire soulève des questions constitutionnelles importantes et inédites sur le droit à la vie privée lié à l'utilisation de l'intelligence artificielle - un domaine du droit en plein développement - et sur la capacité d'un magistrat à mettre en place un programme de surveillance de masse à l'échelle nationale par le biais d'une ordonnance de communication de pièces dans une affaire civile ».


« Ce n'est qu'une question de temps avant que les forces de l'ordre s'adressent à OpenAI pour obtenir l'historique de conversation »

Toutefois, Wang n'est pas d'accord avec Hunt pour dire qu'elle a outrepassé son autorité en appliquant l'ordonnance, soulignant dans une note de bas de page que son ordonnance ne peut pas être interprétée comme permettant une surveillance de masse.

« L'intervenant n'explique pas en quoi l'ordonnance de conservation des documents d'un tribunal qui ordonne la préservation, la ségrégation et la conservation de certaines données privées par une société privée à des fins limitées de litige est, ou pourrait être, un "programme de surveillance de masse à l'échelle nationale", indique la juge Wang. « Ce n'est pas le cas. Le pouvoir judiciaire n'est pas un organisme chargé de l'application de la loi ».

Cependant, la directrice juridique de l'EFF McSherry a prévenu que « ce n'est qu'une question de temps avant que les forces de l'ordre et les parties privées ne commencent à s'adresser à OpenAI pour tenter d'obtenir des historiques de conversation/des enregistrements sur les utilisateurs à toutes sortes de fins, comme ils le font déjà pour les historiques de recherche, les messages sur les médias sociaux, etc. L'ordonnance de Wang pourrait devenir une porte d'entrée vers cet avenir », a-t-elle déclaré.

Wang a rejeté la requête de Hunt principalement parce que « la question de savoir si la conservation temporaire de certaines données de sortie de chat qui ont été régulièrement supprimées par OpenAI au cours de ce litige peut porter atteinte aux prétendus droits constitutionnels et contractuels à la vie privée des consommateurs individuels qui utilisent ChatGPT » a été considérée comme une « question collatérale » qui ne concerne pas directement la question centrale de la violation du droit d'auteur.

Estimant que l'intervention de Hunt ne contribuerait « en aucune façon » au « développement des questions factuelles sous-jacentes dans cette affaire », Wang a décidé que Hunt n'avait pas le droit d'intervenir.

« Aucune des prétendues questions "nouvelles" de l'intervenant proposé n'est en jeu dans cette action en contrefaçon de droit d'auteur », a écrit Wang. « Même si la Cour devait examiner ces questions, elles ne feraient que retarder indûment la résolution des questions juridiques réellement en jeu ».


Un précédent lourd de conséquences

Ce dossier pourrait faire jurisprudence. En refusant de considérer la conservation judiciaire comme une « surveillance de masse », le tribunal ouvre la voie à d'autres requêtes similaires dans de futures affaires, notamment dans des dossiers où l’IA générative est soupçonnée de reproduire illégalement des contenus humains. Par ricochet, cela pose une question plus vaste : que signifie aujourd’hui « supprimer » une donnée dans l’ère de l’IA ? Peut-on promettre aux utilisateurs un véritable droit à l’effacement quand des obligations judiciaires peuvent en suspendre l'exécution ?

L’affaire continue : OpenAI a demandé à ce que l’ordre de conservation soit suspendu dans l’attente d’une révision. Une audience est prévue dans les prochaines semaines. Si la décision initiale est maintenue, les utilisateurs de ChatGPT pourraient ne plus avoir la garantie que leurs conversations sont véritablement effaçables en cas de litige. Un glissement potentiellement lourd pour les pratiques de transparence et de confidentialité dans l’univers de l’intelligence artificielle.

Sources : décision judiciaire (1, 2), OpenAI

Et vous ?

Que pensez-vous de la décision de la juge ?

Peut-on encore parler de “droit à l’oubli” dans l’ère de l’intelligence artificielle, quand des juges peuvent forcer la conservation de nos données personnelles ?

Est-il acceptable que des obligations légales puissent contredire les engagements de confidentialité affichés dans les conditions d'utilisation ?

Les modèles d’IA doivent-ils être “auditables” en permanence, quitte à compromettre l’anonymat des utilisateurs ?

Cette décision crée-t-elle un précédent dangereux pour d'autres juridictions, notamment en Europe, où le RGPD protège le droit à l’effacement ?

Peut-on imaginer une solution technique qui protège à la fois la vie privée des utilisateurs et les exigences judiciaires en matière de preuve ?

Que se passera-t-il si d'autres gouvernements exigent la même chose qu’un tribunal américain ? Sommes-nous en train de créer une norme mondiale sans débat démocratique ?
Vous avez lu gratuitement 62 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !