
Un tribunal fédéral oblige OpenAI à sauvegarder indéfiniment toutes les conversations ChatGPT, même celles qui ont été supprimées
L'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.
Rappel des faits : un bras de fer entre un géant des médias et un géant de l’IA
En décembre 2023, le New York Times a intenté une action en justice contre OpenAI et Microsoft, l’accusant d’avoir formé illégalement ChatGPT avec ses articles protégés par le droit d’auteur, sans licence ni compensation. Le plaignant a affirmé que ChatGPT pouvait reproduire textuellement des extraits entiers d’articles du NYT, même après leur suppression du web ou leur passage derrière des paywalls.
La controverse s'est intensifiée lorsque le NYT a accusé OpenAI d'avoir supprimé des preuves cruciales que son équipe juridique avait passé des heures à extraire, des données essentielles pour déterminer si ses articles avaient été utilisés dans l'entraînement des modèles d'IA d'OpenAI. OpenAI a rétorqué qu'il s'agissait d'un accident, cette suppression n'étant pas intentionnelle, selon l'entreprise.
Le NYT a porté plainte contre OpenAI accompagné d'autres médias. Dans ce cadre, ils ont demandé à la justice d’obliger OpenAI à préserver tous les journaux de conversation de ChatGPT (y compris ceux que les utilisateurs choisissent de supprimer) afin de pouvoir établir si le modèle reproduit effectivement des extraits protégés.
En mai 2025, la juge fédérale Ona Wang a statué en faveur du NYT sur un point-clé : OpenAI devra conserver tout contenu généré par ChatGPT via son site, ses apps et son API, y compris ceux que les utilisateurs ont supprimés. Cette décision a immédiatement suscité l’ire des défenseurs de la vie privée et de la transparence numérique. L’entreprise elle même l'a contestée, dénonçant un coût technique important, mais surtout une atteinte aux droits des utilisateurs, qui seraient privés de leur droit à l’oubli.
Le cœur de la controverse : un droit d’accès à des données que les utilisateurs croyaient effacées
Le NYT soutient que certains utilisateurs, notamment via l’API ou des outils tiers, ont pu tenter de reproduire des articles protégés, voire d’automatiser la génération de contenus payants via ChatGPT. Problème : une partie de ces conversations a été supprimée manuellement ou automatiquement, selon les règles habituelles d’OpenAI (effacement après 30 jours si l’option est activée).
Toutefois, selon les avocats du Times, ces logs restent techniquement récupérables et doivent être mis à disposition du tribunal — au nom du principe de préservation des preuves.
OpenAI a exprimé son opposition ferme à cette mesure, qualifiant l’ordonnance de : « dangereusement intrusive, excessivement large, et incompatible avec les normes internationales en matière de confidentialité »
La société a également indiqué que l’ordonnance pourrait violer le Règlement Général sur la Protection des Données (RGPD), qui garantit aux citoyens européens un droit fondamental à l’effacement. Elle a immédiatement fait appel. Mais dans l’attente de l’issue judiciaire, OpenAI est contraint de désactiver temporairement la suppression définitive des discussions pour certains comptes :
- Les utilisateurs ChatGPT « grand public » (Free, Plus, Pro, Team)
- Les développeurs utilisant l’API sans contrat zéro-rétention
Les utilisateurs "Enterprise", "Edu", et certains comptes institutionnels sont exemptés grâce à des clauses contractuelles spécifiques.
Seules certaines discussions (notamment celles susceptibles de contenir des reproductions d’articles du NYT) seront examinées, avec des filtres par mots-clés. Toutefois, toute la base de logs supprimés est gelée, en attente de tri.
La décision de justice
La semaine dernière, OpenAI a soulevé des objections devant le tribunal, dans l'espoir de faire annuler une décision de justice exigeant que la société d'intelligence artificielle conserve « indéfiniment » tous les journaux de ChatGPT, y compris les conversations supprimées et temporaires.
Mais Sidney Stein, le juge de district américain chargé d'examiner la demande d'OpenAI, a immédiatement rejeté les objections de l'entreprise. Il n'a apparemment pas été touché par les affirmations de l'entreprise selon lesquelles l'ordonnance obligeait OpenAI à abandonner des « normes de longue date en matière de protection de la vie privée » et à affaiblir les protections de la vie privée auxquelles les utilisateurs s'attendent en vertu des conditions d'utilisation de ChatGPT. Stein a plutôt suggéré que l'accord d'utilisation d'OpenAI spécifiait que leurs données pouvaient être conservées dans le cadre d'une procédure judiciaire, ce qui, selon Stein, est exactement ce qui se passe actuellement.
L'ordonnance a été rendue par le juge magistrat Ona Wang quelques jours seulement après que des organisations de presse, le New York Times en tête, l'ont demandée. Les plaignants ont affirmé que l'ordonnance était urgente pour préserver des preuves potentielles dans leur affaire de droits d'auteur, alléguant que les utilisateurs de ChatGPT sont susceptibles d'effacer les chats où ils ont tenté d'utiliser le chatbot pour contourner les paywall afin d'accéder au contenu des actualités.
Un porte-parole d'OpenAI a déclaré que l'entreprise avait l'intention de « continuer à se battre » contre l'ordonnance, mais le fabricant de ChatGPT semble avoir peu d'options. Il pourrait éventuellement demander à la Cour d'appel du deuxième circuit une ordonnance d'urgence rarement accordée qui pourrait intervenir pour bloquer l'ordonnance de Wang. Cependant, pour qu'OpenAI puisse effectivement gagner ce combat, la cour d'appel devrait considérer l'ordonnance de Wang comme un extraordinaire abus de pouvoir discrétionnaire.
Un précédent alarmant pour la vie privée numérique
Cette décision marque une rupture historique dans la manière dont les données utilisateurs sont protégées :
- Fin du droit à l’oubli ? Si des entreprises peuvent légalement accéder à des données effacées, que reste-t-il du droit à l’effacement garanti dans des cadres comme le RGPD ?
- Confiance fragilisée : les utilisateurs de ChatGPT, mais aussi d’autres IA, pourraient se censurer, craignant que toute requête puisse un jour être exploitée, même après suppression.
- Effet boule de neige : cette affaire pourrait ouvrir la voie à d’autres actions judiciaires réclamant des logs supprimés, dans des cas de plagiat, désinformation ou harcèlement.
Cette affaire met en lumière plusieurs enjeux cruciaux :
La confidentialité des données utilisateurs
La décision remet en question la notion de « suppression » des données dans le contexte des services d'IA. Si les utilisateurs pensent supprimer leurs conversations, mais que celles-ci sont conservées indéfiniment pour des raisons légales, cela érode la confiance et soulève des doutes sur le contrôle réel des utilisateurs sur leurs propres données. Bien que la cour ait précisé que les plaignants ne cherchaient pas d'informations personnellement identifiables et que les enregistrements seraient anonymisés, la simple existence de ces données conservées représente un risque potentiel.
Le droit d'auteur à l'ère de l'IA générative
L'issue de ce procès aura des implications majeures pour l'industrie des médias et le développement de l'IA. Si le NYT réussit à prouver une violation massive des droits d'auteur, cela pourrait entraîner des précédents importants sur la manière dont les modèles d'IA sont entraînés et sur la compensation due aux créateurs de contenu. La question de savoir si l'utilisation de matériel protégé par le droit d'auteur pour entraîner des modèles d'IA constitue une « utilisation équitable » reste au centre du débat juridique.
Le rôle des conditions d'utilisation
La décision judiciaire a souligné que les propres conditions de service d'OpenAI permettaient la rétention des données à des fins légales. Cela met en évidence l'importance pour les utilisateurs de comprendre en détail les politiques de confidentialité et les conditions d'utilisation des services qu'ils emploient, car elles peuvent avoir des répercussions inattendues sur leurs droits et leur vie privée.
L'équilibre entre innovation et régulation
Cette affaire est un exemple frappant de la tension entre le rythme rapide de l'innovation technologique et la nécessité de développer des cadres juridiques et réglementaires pour encadrer son utilisation. La décision pourrait pousser les utilisateurs vers des services d'IA concurrents et créer un précédent contraignant pour la rétention des données dans d'autres contextes légaux.
Un avocat reproche aux juges de ne pas donner la parole aux utilisateurs de ChatGPT
Jay Edelson, un éminent avocat spécialisé dans la protection de la vie privée des consommateurs, a déclaré que l'ordonnance est si potentiellement menaçante pour les activités d'OpenAI que l'entreprise n'aura peut-être pas d'autre choix que d'explorer toutes les voies possibles pour continuer à la combattre.
« Ils vont absolument faire quelque chose pour essayer d'arrêter cela », a estimé Edelson, qualifiant l'ordonnance de « folle » pour avoir ignoré les préoccupations de millions d'utilisateurs en matière de vie privée tout en excluant « étrangement » les entreprises clientes.
D'après les documents déposés au tribunal, il semble possible que les utilisateurs professionnels aient été exclus pour protéger la compétitivité d'OpenAI, mais Edelson a laissé entendre que leur exclusion n'avait « aucune logique ». En excluant ces utilisateurs de ChatGPT, l'ordonnance du juge a peut-être éliminé les utilisateurs les mieux armés pour lutter contre l'ordonnance, a suggéré Edelson.
« Cela signifie que les grandes entreprises, celles qui ont le pouvoir, voient toutes leurs données rester privées et que personne ne peut y toucher », a déclaré Edelson.
Au lieu de cela, l'ordonnance « ne fera qu'empiéter sur la vie privée des gens ordinaires », ce qui, selon Edelson, « est vraiment choquant », étant donné que Wang a rejeté la demande d'intervention paniquée de deux utilisateurs de ChatGPT.
« Nous parlons de milliards de chats qui vont maintenant être conservés alors qu'ils ne l'étaient pas auparavant », a déclaré Edelson, en précisant qu'il a saisi des informations sur son historique médical personnel dans ChatGPT. « Les gens demandent des conseils sur leur mariage, s'inquiètent de perdre leur emploi. Ils disent des choses très personnelles. Et l'un des avantages d'OpenAI est que vous pouvez supprimer vos chats et que vous avez le droit de créer des chats temporaires ».
Le risque le plus important pour les utilisateurs serait une violation des données, a déclaré Edelson, mais ce n'est pas le seul problème potentiel en matière de protection de la vie privée. Corynne McSherry, directrice juridique de l'Electronic Frontier Foundation, un groupe de défense des droits numériques, a déclaré précédemment que tant que les données des utilisateurs seraient conservées, elles pourraient également être exposées dans le cadre de futures demandes d'application de la loi et de litiges privés.
Conclusion : une victoire judiciaire aux allures de défaite pour la confiance numérique
Ce que gagne le New York Times en preuves potentielles, l’écosystème IA le perd en crédibilité. Cette affaire met à nu une vérité dérangeante : dans l’absence de règles claires, la mémoire des IA peut devenir une arme judiciaire, au détriment de ceux qui lui font confiance.
La capacité du NYT à examiner les journaux de ChatGPT est une étape décisive dans le débat sur l'IA et le droit d'auteur. Elle force une réflexion critique sur la transparence des opérations des entreprises d'IA, la protection des données des utilisateurs et l'évolution nécessaire du cadre juridique pour s'adapter aux réalités d'un monde de plus en plus façonné par l'intelligence artificielle. Les négociations en cours pour permettre aux plaignants de consulter les données, bien que sur un petit échantillon, témoignent de la complexité et de la sensibilité de cette affaire, dont les répercussions se feront sentir bien au-delà des parties directement impliquées.
Sources : OpenAI, décision de justice
Et vous ?




Vous avez lu gratuitement 82 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.