IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI conteste l'ordonnance lui enjoignant de remettre 20 millions de conversations privées ChatGPT au New York Times, affirmant que cette ordonnance menace la vie privée des utilisateurs

Le , par Alex

143PARTAGES

5  0 
OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

OpenAI est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative.

En juillet, l'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

Pourtant, OpenAI avait contesté fermement l'ordonnance émise par le juge de l'affaire qui l'oppose au New York Times aux États-Unis. Le juge a ordonné à OpenAI de conserver l'intégralité des journaux de ChatGPT, y compris les conversations supprimées et les données sensibles collectées via son API. Cette mesure conservatoire est intervenue après que le New York Times et les autres plaignants ont accusé OpenAI de détruire des preuves. OpenAI s'oppose à cette décision, affirmant que cette exigence contredit ses engagements en matière de confidentialité des utilisateurs.

Récemment, OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

Ce conflit trouve son origine dans un procès en cours pour violation du droit d'auteur, dans lequel le NYT et d'autres éditeurs accusent OpenAI d'avoir entraîné ses modèles d'IA à partir de contenus d'actualité volés. Alors qu'OpenAI avait initialement proposé de partager les journaux de conversation à titre de compromis à la demande du NYT qui souhaitait obtenir 120 millions de conversations, l'entreprise estime désormais que l'ordonnance du tribunal va trop loin.

OpenAI a souligné que moins de 0,01 % de ces conversations sont liées au procès en cours. La société a demandé au tribunal de district d'annuler l'ordonnance et d'exiger des plaignants qu'ils collaborent avec OpenAI pour identifier les journaux de discussion réellement pertinents. Un recours devant la cour fédérale reste une option. La société a publié un message direct à l'intention des utilisateurs de ChatGPT pour leur expliquer la situation. Selon OpenAI, le NYT souhaite accéder à des millions de conversations privées dans le but spécifique de trouver des cas où des utilisateurs ont tenté de contourner le paywall du journal à l'aide de ChatGPT.


Les préoccupations en matière de confidentialité vont au-delà de cette affaire judiciaire. Des conversations ChatGPT sont déjà apparues dans les résultats de recherche Google et dans l'outil Google Search Console utilisé par les développeurs pour surveiller le trafic web. OpenAI a annoncé son intention de développer des fonctionnalités de sécurité améliorées, notamment le chiffrement côté client pour les messages ChatGPT.

L'équipe juridique d'OpenAI fait valoir qu'aucun tribunal n'a jamais ordonné une production aussi massive d'informations personnelles. Le dossier met en garde contre le fait que cela crée un précédent inquiétant, dans lequel tout plaignant poursuivant une entreprise d'IA pourrait exiger des dizaines de millions de conversations sans démontrer leur pertinence pour son affaire. L'entreprise a établi un parallèle avec la confidentialité des e-mails. Les tribunaux n'autorisent pas les plaignants poursuivant Google à consulter les messages Gmail privés de millions d'utilisateurs, que ces e-mails soient pertinents ou non pour l'affaire. OpenAI insiste sur le fait que les mêmes normes devraient protéger les journaux de discussion de l'IA.

La juge américaine Ona Wang a rendu l'ordonnance contestée le 7 novembre, exigeant qu'OpenAI fournisse les 20 millions de journaux ChatGPT anonymisés d'ici le 14 novembre 2025 ou dans les sept jours suivant la fin du processus d'anonymisation. La juge a décidé que la production devait se poursuivre malgré le désaccord entre les deux parties sur la nécessité de partager l'intégralité des journaux.

La juge Wang a déclaré qu'OpenAI n'avait pas démontré en quoi la vie privée des consommateurs restait menacée, compte tenu des deux protections existantes : l'ordonnance de protection dans le cadre du litige et l'anonymisation complète par OpenAI des 20 millions de journaux de discussion. OpenAI a rétorqué que le tribunal avait ignoré une déclaration sous serment d'un témoin expliquant que le processus d'anonymisation ne supprimait pas les informations susceptibles d'être privées, même lorsqu'elles ne permettaient pas d'identifier les utilisateurs. La société a donné l'exemple d'un journaliste du Washington Post utilisant ChatGPT pour l'aider à préparer un article.

Le New York Times a répondu par une déclaration cinglante. Le journal a présenté son procès comme visant à tenir OpenAI et Microsoft responsables du vol de millions d'œuvres protégées par le droit d'auteur afin de créer des produits concurrents. Le NYT a accusé OpenAI d'avoir délibérément induit les utilisateurs en erreur et dissimulé des faits dans son article de blog sur l'ordonnance du tribunal.

Le journal a insisté sur le fait qu'aucune confidentialité des utilisateurs de ChatGPT n'était menacée. Le tribunal a ordonné à OpenAI de fournir des échantillons de conversations anonymisées dans le cadre d'une ordonnance de protection juridique, OpenAI se chargeant elle-même de l'anonymisation. Le NYT a qualifié les préoccupations relatives à la confidentialité de malhonnêtes, soulignant que les conditions d'utilisation d'OpenAI autorisent déjà l'entreprise à former des modèles à partir des conversations des utilisateurs et à divulguer ces conversations à des fins judiciaires. La collection de chats contestée représente un échantillon aléatoire de conversations ChatGPT couvrant la période de décembre 2022 à novembre 2024. Les chats des clients professionnels ont été exclus de l'échantillon.

OpenAI a proposé plusieurs alternatives axées sur la confidentialité au NYT. Il s'agissait notamment de recherches ciblées dans l'échantillon afin de localiser les chats contenant le texte d'articles du New York Times, afin de garantir que seules les conversations pertinentes seraient partagées. La société a également proposé des données de classification de haut niveau montrant comment ChatGPT était utilisé dans l'échantillon. Le NYT a rejeté toutes ces options.

Les conversations sont conservées dans un système sécurisé protégé par une obligation légale de conservation. Cela signifie que les données ne peuvent être consultées ou utilisées à aucune fin autre que le respect des exigences légales. OpenAI a déclaré que le NYT serait légalement interdit de rendre publiques des données en dehors des procédures judiciaires. La société s'est engagée à lutter contre toute tentative de divulgation des conversations des utilisateurs.


Dans un document déposé le 30 octobre, le NYT a accusé OpenAI d'avoir rompu les accords préalables en refusant de produire ne serait-ce qu'un petit échantillon des milliards de résultats du modèle que ses actions ont mis en cause dans cette affaire. Le journal a fait valoir que la production immédiate de l'échantillon de résultats était essentielle pour respecter la date limite de divulgation fixée au 26 février 2026. Le NYT a qualifié la proposition d'OpenAI d'effectuer des recherches sur le sous-ensemble des résultats du modèle d'inadéquate et inefficace. Les plaignants ont déclaré qu'ils ne pouvaient pas mener une analyse experte appropriée du fonctionnement des modèles d'OpenAI dans son produit grand public, de la manière dont la génération augmentée par la récupération fournit du contenu d'actualité, de la manière dont les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de abgech
Membre actif https://www.developpez.com
Le 20/11/2025 à 9:46
@J_P_P

On ne voit pas pourquoi CATGOT piraterait les articles du NYT sans payer des droit d'auteur.
Tout comme, très certainement, il se permet de pirater vos écrits sans votre consentement et même sans que vous le sachiez.
1  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 05/12/2025 à 7:08
Voila une nouvelle qu'elle est bonne.

Après, vu que le llm ne serait plus rien une fois qu'il aura tué tous les créateurs de valeur, que le créateur du llm ne veuillent pas rémunérer les créateurs de contenu montre que OpenIA n'a qu'une vision très court terme de sa finance.
1  0 
Avatar de J_P_P
Membre régulier https://www.developpez.com
Le 19/11/2025 à 15:51
On ne voit pas bien pourquoi un journal aurait accès à des conversations privées ?
0  0 
Avatar de Christophe
Responsable Systèmes https://www.developpez.com
Le 14/01/2026 à 8:28
Et avec cette volumétrie, il va falloir l'IA pour traiter ...
0  0