IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI conteste l'ordonnance lui enjoignant de remettre 20 millions de conversations privées ChatGPT au New York Times, affirmant que cette ordonnance menace la vie privée des utilisateurs

Le , par Alex

3PARTAGES

3  0 
OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

OpenAI est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité ». L'entreprise est connue pour ses grands modèles de langage tels que GPT-4o, la série de modèles de génération d'images DALL-E et le modèle de génération de vidéos Sora. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative.

En juillet, l'affaire qui oppose le New York Times à OpenAI ne se limite plus à une simple question de droit d'auteur. Elle révèle une tension bien plus fondamentale : peut-on sacrifier la vie privée des utilisateurs sur l’autel de la justice ? À la suite d’une décision de justice favorable au NYT, le journal va pouvoir examiner des journaux de conversation supprimés de ChatGPT, dans le cadre de son action en justice contre OpenAI. Derrière cette victoire judiciaire se cache une réalité beaucoup plus trouble, où les principes de confidentialité, de suppression volontaire des données, et même de légalité internationale, vacillent dangereusement.

Pourtant, OpenAI avait contesté fermement l'ordonnance émise par le juge de l'affaire qui l'oppose au New York Times aux États-Unis. Le juge a ordonné à OpenAI de conserver l'intégralité des journaux de ChatGPT, y compris les conversations supprimées et les données sensibles collectées via son API. Cette mesure conservatoire est intervenue après que le New York Times et les autres plaignants ont accusé OpenAI de détruire des preuves. OpenAI s'oppose à cette décision, affirmant que cette exigence contredit ses engagements en matière de confidentialité des utilisateurs.

Récemment, OpenAI a déposé une requête d'urgence pour contester une décision de justice qui oblige l'entreprise à remettre 20 millions de conversations ChatGPT complètes au New York Times. Le géant technologique affirme que cette ordonnance menace la vie privée des utilisateurs à une échelle sans précédent. Chacun de ces 20 millions d'enregistrements contient une conversation complète avec de multiples échanges entre les utilisateurs et ChatGPT. OpenAI prévient que cela diffère considérablement des paires de questions-réponses isolées. L'entreprise a comparé la différence entre écouter une discussion privée dans son intégralité et en capter un bref extrait de cinq secondes.

Ce conflit trouve son origine dans un procès en cours pour violation du droit d'auteur, dans lequel le NYT et d'autres éditeurs accusent OpenAI d'avoir entraîné ses modèles d'IA à partir de contenus d'actualité volés. Alors qu'OpenAI avait initialement proposé de partager les journaux de conversation à titre de compromis à la demande du NYT qui souhaitait obtenir 120 millions de conversations, l'entreprise estime désormais que l'ordonnance du tribunal va trop loin.

OpenAI a souligné que moins de 0,01 % de ces conversations sont liées au procès en cours. La société a demandé au tribunal de district d'annuler l'ordonnance et d'exiger des plaignants qu'ils collaborent avec OpenAI pour identifier les journaux de discussion réellement pertinents. Un recours devant la cour fédérale reste une option. La société a publié un message direct à l'intention des utilisateurs de ChatGPT pour leur expliquer la situation. Selon OpenAI, le NYT souhaite accéder à des millions de conversations privées dans le but spécifique de trouver des cas où des utilisateurs ont tenté de contourner le paywall du journal à l'aide de ChatGPT.


Les préoccupations en matière de confidentialité vont au-delà de cette affaire judiciaire. Des conversations ChatGPT sont déjà apparues dans les résultats de recherche Google et dans l'outil Google Search Console utilisé par les développeurs pour surveiller le trafic web. OpenAI a annoncé son intention de développer des fonctionnalités de sécurité améliorées, notamment le chiffrement côté client pour les messages ChatGPT.

L'équipe juridique d'OpenAI fait valoir qu'aucun tribunal n'a jamais ordonné une production aussi massive d'informations personnelles. Le dossier met en garde contre le fait que cela crée un précédent inquiétant, dans lequel tout plaignant poursuivant une entreprise d'IA pourrait exiger des dizaines de millions de conversations sans démontrer leur pertinence pour son affaire. L'entreprise a établi un parallèle avec la confidentialité des e-mails. Les tribunaux n'autorisent pas les plaignants poursuivant Google à consulter les messages Gmail privés de millions d'utilisateurs, que ces e-mails soient pertinents ou non pour l'affaire. OpenAI insiste sur le fait que les mêmes normes devraient protéger les journaux de discussion de l'IA.

La juge américaine Ona Wang a rendu l'ordonnance contestée le 7 novembre, exigeant qu'OpenAI fournisse les 20 millions de journaux ChatGPT anonymisés d'ici le 14 novembre 2025 ou dans les sept jours suivant la fin du processus d'anonymisation. La juge a décidé que la production devait se poursuivre malgré le désaccord entre les deux parties sur la nécessité de partager l'intégralité des journaux.

La juge Wang a déclaré qu'OpenAI n'avait pas démontré en quoi la vie privée des consommateurs restait menacée, compte tenu des deux protections existantes : l'ordonnance de protection dans le cadre du litige et l'anonymisation complète par OpenAI des 20 millions de journaux de discussion. OpenAI a rétorqué que le tribunal avait ignoré une déclaration sous serment d'un témoin expliquant que le processus d'anonymisation ne supprimait pas les informations susceptibles d'être privées, même lorsqu'elles ne permettaient pas d'identifier les utilisateurs. La société a donné l'exemple d'un journaliste du Washington Post utilisant ChatGPT pour l'aider à préparer un article.

Le New York Times a répondu par une déclaration cinglante. Le journal a présenté son procès comme visant à tenir OpenAI et Microsoft responsables du vol de millions d'œuvres protégées par le droit d'auteur afin de créer des produits concurrents. Le NYT a accusé OpenAI d'avoir délibérément induit les utilisateurs en erreur et dissimulé des faits dans son article de blog sur l'ordonnance du tribunal.

Le journal a insisté sur le fait qu'aucune confidentialité des utilisateurs de ChatGPT n'était menacée. Le tribunal a ordonné à OpenAI de fournir des échantillons de conversations anonymisées dans le cadre d'une ordonnance de protection juridique, OpenAI se chargeant elle-même de l'anonymisation. Le NYT a qualifié les préoccupations relatives à la confidentialité de malhonnêtes, soulignant que les conditions d'utilisation d'OpenAI autorisent déjà l'entreprise à former des modèles à partir des conversations des utilisateurs et à divulguer ces conversations à des fins judiciaires. La collection de chats contestée représente un échantillon aléatoire de conversations ChatGPT couvrant la période de décembre 2022 à novembre 2024. Les chats des clients professionnels ont été exclus de l'échantillon.

OpenAI a proposé plusieurs alternatives axées sur la confidentialité au NYT. Il s'agissait notamment de recherches ciblées dans l'échantillon afin de localiser les chats contenant le texte d'articles du New York Times, afin de garantir que seules les conversations pertinentes seraient partagées. La société a également proposé des données de classification de haut niveau montrant comment ChatGPT était utilisé dans l'échantillon. Le NYT a rejeté toutes ces options.

Les conversations sont conservées dans un système sécurisé protégé par une obligation légale de conservation. Cela signifie que les données ne peuvent être consultées ou utilisées à aucune fin autre que le respect des exigences légales. OpenAI a déclaré que le NYT serait légalement interdit de rendre publiques des données en dehors des procédures judiciaires. La société s'est engagée à lutter contre toute tentative de divulgation des conversations des utilisateurs.


Dans un document déposé le 30 octobre, le NYT a accusé OpenAI d'avoir rompu les accords préalables en refusant de produire ne serait-ce qu'un petit échantillon des milliards de résultats du modèle que ses actions ont mis en cause dans cette affaire. Le journal a fait valoir que la production immédiate de l'échantillon de résultats était essentielle pour respecter la date limite de divulgation fixée au 26 février 2026. Le NYT a qualifié la proposition d'OpenAI d'effectuer des recherches sur le sous-ensemble des résultats du modèle d'inadéquate et inefficace. Les plaignants ont déclaré qu'ils ne pouvaient pas mener une analyse experte appropriée du fonctionnement des modèles d'OpenAI dans son produit grand public, de la manière dont la génération augmentée par la récupération fournit du contenu d'actualité, de la manière dont les consommateurs interagissent avec le produit et de la fréquence des hallucinations sans avoir directement accès aux résultats du modèle.

OpenAI a rétorqué que les demandes de divulgation du NYT se concentraient initialement sur les journaux liés au contenu du Times. La société s'efforçait de répondre à ces demandes en échantillonnant les journaux de conversation. Vers la fin de ce processus, les plaignants ont déposé une requête avec une nouvelle demande : au lieu de trouver et de produire les journaux liés au contenu du Times, OpenAI devait remettre l'intégralité de l'échantillon de 20 millions de journaux sur un disque dur.
Comparaison des affaires et des contextes

L'ordonnance du juge Wang du 7 novembre citait l'affaire Concord Music Group, Inc. c. Anthropic PBC, une affaire californienne dans laquelle la juge fédérale américaine Susan van Keulen avait ordonné la production de 5 millions d'enregistrements. L'ordonnance indiquait qu'OpenAI avait systématiquement fait référence à la formule de van Keulen pour déterminer la taille de l'échantillon afin d'étayer la méthodologie qu'elle proposait pour l'échantillonnage des données de conversation. Pourtant, OpenAI n'a pas expliqué pourquoi l'ordonnance ultérieure de van Keulen ordonnant la production de l'intégralité de l'échantillon de 5 millions d'enregistrements au plaignant n'était pas tout aussi instructive.

Dans sa réponse, OpenAI a déclaré que la société n'avait jamais eu l'occasion d'expliquer pourquoi l'affaire Concord ne devait pas s'appliquer ici, car les nouveaux plaignants n'y avaient pas fait référence dans leur requête. Selon OpenAI, l'ordonnance Concord ne portait pas sur la question de savoir si la production en gros de l'échantillon était appropriée. Elle concernait le mécanisme par lequel Anthropic exécuterait une production déjà convenue. Rien dans cette ordonnance ne suggère que van Keulen aurait ordonné une production en gros si Anthropic avait soulevé les préoccupations en matière de confidentialité soulevées par OpenAI tout au long de cette affaire.

Les journaux Concord ne comprenaient que des paires de requêtes-réponses, c'est-à-dire une seule requête utilisateur suivie d'une seule réponse du modèle. Les journaux en question ici sont des conversations complètes. Chaque journal parmi les 20 millions d'échantillons représente un échange complet de plusieurs paires de requêtes-réponses entre un utilisateur et ChatGPT. Cela pourrait donner jusqu'à 80 millions de paires de requêtes-réponses.

Pourtant, en septembre 2024, OpenAI a suscité une vive controverse en déclarant qu’il lui est impossible de former ses modèles d’IA sans utiliser des matériaux protégés par le droit d’auteur. Cette déclaration a été faite devant une sous-commission de la Chambre des Lords au Royaume-Uni, où OpenAI a plaidé pour le droit d’utiliser ces matériaux gratuitement. « Étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine - y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux - il serait impossible d'entraîner les meilleurs modèles d'IA actuels sans utiliser des documents protégés par le droit d'auteur », a écrit l'entreprise dans son dossier de preuves.

Voici les déclarations d'OpenAI :

Lutter contre l'atteinte à la vie privée des utilisateurs par le New York Times

La confiance, la sécurité et la confidentialité guident chacun de nos produits et chacune de nos décisions.

Chaque semaine, 800 millions de personnes utilisent ChatGPT pour réfléchir, apprendre, créer et gérer certains des aspects les plus personnels de leur vie. Les gens nous confient des conversations sensibles, des fichiers, des identifiants, des souvenirs, des recherches, des informations de paiement et des agents IA qui agissent en leur nom. Nous traitons ces données comme les informations les plus sensibles de votre vie numérique et nous mettons en place des mesures de protection de la vie privée et de la sécurité à la hauteur de cette responsabilité.

Aujourd'hui, cette responsabilité est mise à l'épreuve.

Le New York Times exige que nous lui remettions 20 millions de vos conversations privées sur ChatGPT. Il prétend pouvoir trouver des exemples où vous auriez utilisé ChatGPT pour contourner son système de paiement.

Cette demande ne tient pas compte des mesures de protection de la vie privée en vigueur depuis longtemps, va à l'encontre des pratiques de sécurité courantes et nous obligerait à divulguer des dizaines de millions de conversations hautement personnelles provenant de personnes qui n'ont aucun lien avec le procès sans fondement intenté par le Times contre OpenAI.

Ils ont déjà tenté cela auparavant. À l'origine, le Times voulait vous priver de la possibilité de supprimer vos conversations privées. Nous nous sommes battus contre cela et avons rétabli votre droit de les supprimer. Ils ont ensuite exigé que nous leur remettions 1,4 milliard de vos conversations privées sur ChatGPT. Nous avons refusé, et nous refusons à nouveau aujourd'hui. Vos conversations privées vous appartiennent et ne doivent pas devenir un enjeu dans un litige concernant l'accès à du contenu en ligne.

Nous respectons le journalisme indépendant et de qualité et collaborons avec de nombreux éditeurs et rédactions. Le journalisme a toujours joué un rôle essentiel dans la défense du droit à la vie privée des personnes à travers le monde. Cependant, cette demande du New York Times n'est pas à la hauteur de cet héritage, et nous demandons au tribunal de la rejeter. Nous continuerons à explorer toutes les options disponibles pour protéger la vie privée de nos utilisateurs.

Nous accélérons notre feuille de route en matière de sécurité et de confidentialité afin de protéger vos données. OpenAI est l'une des organisations les plus ciblées au monde. Nous avons investi beaucoup de temps et de ressources dans la mise en place de systèmes visant à empêcher l'accès non autorisé à vos données par des adversaires allant des groupes criminels organisés aux services de renseignement soutenus par des États.

Toutefois, si le Times obtient gain de cause, nous serons contraints de remettre les données que nous protégeons, à savoir vos données, à des tiers, notamment aux avocats et aux consultants rémunérés du Times.

Notre feuille de route à long terme comprend des fonctionnalités de sécurité avancées conçues pour préserver la confidentialité de vos données, notamment le chiffrement côté client de vos messages avec ChatGPT. Nous pensons que ces fonctionnalités contribueront à préserver la confidentialité de vos conversations privées et à les rendre inaccessibles à quiconque, y compris à OpenAI. Nous mettrons en place des systèmes entièrement automatisés pour détecter les problèmes de sécurité dans nos produits. Seuls les abus graves et les risques critiques, tels que les menaces pour la vie d'une personne, les projets de nuire à autrui ou les menaces pour la cybersécurité, pourront être signalés à une petite équipe d'évaluateurs humains hautement qualifiés. Ces fonctionnalités de sécurité sont en cours de développement et nous vous communiquerons très prochainement plus de détails à leur sujet, ainsi que d'autres mesures d'atténuation à court...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !