IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic a réglé un recours collectif pour violation du droit d'auteur, dans lequel des auteurs accusaient l'entreprise d'avoir entraîné ses modèles d'IA à partir de leurs œuvres sans leur autorisation

Le , par Alex

25PARTAGES

8  0 
Anthropic a réglé un recours collectif pour violation du droit d'auteur, dans lequel des auteurs accusaient l'entreprise d'avoir entraîné ses modèles d'IA à partir de leurs œuvres sans leur autorisation.

La start-up spécialisée dans l'IA Anthropic a réglé un recours collectif pour violation du droit d'auteur, dans lequel des auteurs accusaient l'entreprise d'avoir entraîné ses modèles d'IA à partir de leurs œuvres sans leur autorisation. Anthropic, qui a formé son assistant IA Claude à l'aide de livres protégés par le droit d'auteur, a été poursuivie en justice par les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace en août 2024.

Une action en justice contre Anthropic révèle la façon dont l'entreprise a détruit des millions de livres imprimés dans le seul but de former son IA Claude. Anthropic a retiré la reliure des livres, les a numérisés en fichiers numériques et a jeté les originaux. Cette numérisation destructrice a joué en sa faveur : le juge a estimé que cela relève de l'usage loyal, car les livres achetés ont été transformés, utilisés en interne, sans création de nouveaux exemplaires. Mais l'affaire se complique : Anthropic a aussi téléchargé plus de 7 millions de livres numériques piratés. Pour ces copies pirates, Anthropic doit faire face à un procès pour des dommages-intérêts.

Début août, un juge fédéral américain vient de certifier la plus grande action collective jamais intentée pour violation du droit d’auteur contre une entreprise technologique. La cible : Anthropic, créatrice du modèle Claude, accusée d’avoir bâti une partie de son succès sur des données issues d’une massive bibliothèque de livres piratés. Derrière cette affaire se joue un débat fondamental : l’IA peut-elle prospérer sur la base d’une appropriation massive de contenus protégés ? Et si la justice tranche sévèrement, l’impact pourrait être dévastateur non seulement pour Anthropic, mais pour l’ensemble du secteur.

Dans ce contexte, Anthropic a réglé un recours collectif pour violation du droit d'auteur, dans lequel des auteurs accusaient l'entreprise d'avoir entraîné ses modèles d'IA à partir de leurs œuvres sans leur autorisation, selon un document judiciaire. Basée à San Francisco, Anthropic, qui a formé son assistant IA Claude à l'aide de livres protégés par le droit d'auteur, a été poursuivie en justice par les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace en août 2024.


En juin dernier, le juge fédéral américain William Alsup a statué que les modèles d'IA pouvaient légalement apprendre à partir de livres protégés par le droit d'auteur sans le consentement des auteurs. Cette décision a constitué une victoire partielle pour Anthropic. Alsup a estimé que cette utilisation était « extrêmement transformative » et « équitable », même si l'entreprise avait peut-être enfreint la loi en piratant une grande partie de ses sources. Selon le dossier déposé devant la Cour d'appel des États-Unis pour le 9e circuit, la société technologique et les auteurs concernés ont demandé à la cour de suspendre la procédure pendant qu'ils finalisent l'accord de règlement.

La doctrine de l'« usage loyal », qui autorise la reproduction limitée de matériel protégé par le droit d'auteur sans consentement dans certaines circonstances, est un élément clé de la défense des sociétés d'IA contre les plaintes pour violation du droit d'auteur. « Cet accord historique profitera à tous les membres du groupe », a déclaré Justin Nelson, associé chez Susman Godfrey et avocat des auteurs. « Nous sommes impatients d'annoncer les détails de l'accord dans les semaines à venir. »

Alsup avait initialement ordonné que l'affaire soit jugée en décembre afin de déterminer le montant des dommages-intérêts à verser pour piratage. Si l'affaire avait été jugée, les dommages-intérêts auraient pu atteindre 150 000 dollars par cas de violation délibérée du droit d'auteur et auraient pu coûter des milliards à la start-up. Début août, l'entreprise d'IA a tenté de faire appel, mais sa demande a été rejetée.

Anthropic, fondée par d'anciens employés d'OpenAI et soutenue par Amazon, a piraté au moins 7 millions de livres provenant de Books3, Library Genesis et Pirate Library Mirror, des bibliothèques en ligne contenant des copies non autorisées d'ouvrages protégés par le droit d'auteur, afin de former son logiciel, selon le juge. Elle a également acheté des millions d'exemplaires imprimés en gros, en a retiré la reliure, en a découpé les pages et les a numérisées sous forme numérique et lisible par machine, ce que le juge Alsup a estimé relever du fair use, selon la décision du juge.

« La simple conversion d'un livre imprimé en fichier numérique pour gagner de la place et permettre la recherche était transformatrice pour cette seule raison », a-t-il écrit. Anthropic a ensuite acheté les livres qu'elle avait initialement piratés. Alsup a déclaré que ces achats n'absolraient pas la société, mais qu'ils pouvaient réduire les dommages-intérêts.

Cet accord intervient alors que de nombreuses autres affaires de violation du droit d'auteur contre des sociétés d'IA sont portées devant les tribunaux à travers le pays. Tout récemment, Walt Disney Co. et Universal Pictures ont poursuivi en justice la société d'intelligence artificielle Midjourney, que les studios accusent d'avoir entraîné ses modèles de génération d'images sur leurs contenus protégés par le droit d'auteur.

Un autre exemple de cette situation, en 2023, Jane Friedman, journaliste, auteure et professeure, a découvert sur Amazon et Goodreads une demi-douzaine de livres frauduleux portant son nom, probablement remplis de contenu généré par l’intelligence artificielle (IA). Ces livres traitaient de sujets similaires à ceux qu’elle aborde dans ses ouvrages, comme l’écriture, la publication et la promotion de livres électroniques. Elle a demandé à Amazon et à Goodreads de retirer ces faux titres de leurs sites, mais elle s’est heurtée à des difficultés et à des résistances. Ce n'est que quand la plainte de Jane Friedman est devenue virale sur internet que les deux plateformes ont décidé de retirer lesdits livres.

Source : Juge fédéral américain William Alsup

Et vous ?

Pensez-vous que cette décision est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic remporte une victoire importante au sujet de « l'usage loyal » pour les plateformes d'IA, mais fait face à un procès pour des dommages-intérêts portant sur des millions d'œuvres piratées

Disney et Universal intentent le premier procès majeur contre une entreprise spécialisée dans la génération d'images par IA, Midjourney, pour violation du droit d'auteur, affirmant : "C'est du vol"

OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable, ajoutant que les États-Unis seraient perdants
Vous avez lu gratuitement 926 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 08/09/2025 à 18:28
Oui, c'est une bonne chose, personne n'aime voir son travail être "voler", qui plus est pour en tirer profit...

Mais...

  • qui va récolter cet argent ?
  • qui va le recevoir ? Cela m'étonnerait que les créateurs d'origine s'y retrouvent.
  • qui va décider de cette répartition ? Un livre de 100 pages peut avoir une valeur bien plus grand que toute une série d'autres bouquins.
  • comment va être décidé cette répartition ?
  • comment et qui va "surveiller" cela ?
  • comment "savoir" quel IA a utilisé "quoi" ?
  • ...


Pourquoi faire une "exception" avec l'IA ? L'idée d'admettre qu'il faut régler les choses "une fois le mal fait" est dangereux, il ne faudrait pas pendre avant et juger après... Tous les "créateurs de valeurs" n'ont pas forcément les moyens de se défendre.

Les entreprises qui "exploitent" le travail d'autres devraient "négocier" avec le créateur d'origine avant d'utiliser son œuvre. Ce serait une bonne chose, même pour ces entreprises, qui n'utiliseraient plus tout et n'importe quoi pour alimenter leur IA.

Et si tout cela n'est pas "techniquement" faisable et "ralentirait" le développement de l'IA, alors il faut que ces même entreprises dévoilent comment travaillent leurs IAs, ce qui permettrait à d'autres de développer de "meilleurs IA".

Le "code" d'une IA utilisant des données "volées" devrait automatiquement être rendue public. Ce serait la moindre des choses. Parce qu'actuellement, ces entreprises 'trouvent" normal d'alimenter leur IA avec le travail d'autrui, mais font tout pour "garder secret" comment leur IA fonctionne...

Ce n'est que mon avis, chacun pense ce qu'il veut, bien entendu.

BàV et Peace & Love.
4  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 8:40
Le procès pour atteinte au copyright n'est pas mené par Stallman :
Pour rappel, en juillet 2025, un juge fédéral de Californie a autorisé trois auteurs (Andrea Bartz, Charles Graeber et Kirk Wallace Johnson) à mener une action collective nationale contre la start-up Anthropic
Bien que le tribunal ait jugé l'utilisation des livres équitable, la FSF demande aux développeurs d'intelligence artificielle (IA) qui entraînent leurs modèles à l'aide d'énormes ensembles de données téléchargés sur Internet de fournir les LLM à leurs utilisateurs en toute liberté, à titre de compensation.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/03/2026 à 19:25
Citation Envoyé par Access_to_folder Voir le message
Et donc si j'ai bien suivi, le livre piraté non libre de M. Stallman mais diffusé par FSF en licence libre si pas d'usage commercial, la FSF envisagerait la possibilité d'un procès faisant que vu que Anthropic a utilisé d'une licence libre, le LLM d'Anthropic doit devenir libre en tant que dommage de réparation à cette violation de droits et acceptation de fait, par usage en traitement automatisé, d'un bien en licence libre...
Ce qui est logique, car, comme vous l'avez dit vous-même, ce livre est placé en "en licence libre si pas d'usage commercial". Hors Anthropic, en l'utilisant pour un LLM commercial, viole potentiellement cette licence.
Après, le débat de fond porte, comme toujours, sur si pour un LLM, ça va être plus de l'inspiration, ou plus du plagiat. Mais la logique de la FSF se tient si l'on en reste à ce qu'elle demande (le passage des LLM d'Anthropic concernés en non-commercial)
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 17/03/2026 à 9:00
Ha oui j'avais pas vu.
0  0 
Avatar de axd13720bouille
Nouveau Candidat au Club https://www.developpez.com
Le 09/09/2025 à 22:38
oui normal qu'il l'ai rejeté
0  1 
Avatar de Access_to_folder
Nouveau Candidat au Club https://www.developpez.com
Le 18/03/2026 à 5:24
Tout à fait, surtout par leur raison militante.
Peut être que le Tribunal quant à lui jugera différemment, s'il la FSF s'engage dans la procédure, et accordera plutôt des dommages intérêts pour le préjudice subit ; les jurisprudences actuelles ne reconnaissent pas encore à l'IA un équivalent d'intelligence humaine quant à la compréhension de la licence. Une affaire intéressante à suivre (tentative de report de responsabilité d'un fait humain sur une IA ?).
0  1 
Avatar de Access_to_folder
Nouveau Candidat au Club https://www.developpez.com
Le 17/03/2026 à 9:07
Et donc si j'ai bien suivi, le livre piraté non libre de M. Stallman mais diffusé par FSF en licence libre si pas d'usage commercial, la FSF envisagerait la possibilité d'un procès faisant que vu que Anthropic a utilisé d'une licence libre, le LLM d'Anthropic doit devenir libre en tant que dommage de réparation à cette violation de droits et acceptation de fait, par usage en traitement automatisé, d'un bien en licence libre...
0  2 
Avatar de Access_to_folder
Nouveau Candidat au Club https://www.developpez.com
Le 17/03/2026 à 5:35
Il faudrait être parfois cohérent :

"Piratage logiciel : Richard Stallman affirme que partager n’est pas voler et accuse l’industrie d’avoir transformé l’entraide numérique en faute morale,"
https://www.developpez.net/forums/d2...tager-n-voler/

Violer les droits des autres n'est pas un problème sauf lorsqu'il s'agit des siens...
0  4 
Avatar de Access_to_folder
Nouveau Candidat au Club https://www.developpez.com
Le 17/03/2026 à 8:52
Citation Envoyé par _toma_ Voir le message
Le procès pour atteinte au copyright n'est pas mené par Stallman :
Non mais la revendication d'atteinte à ses droits est faite par sa fondation, la FSF, d'après l'article :

"Nous sommes une petite organisation aux ressources limitées et nous devons choisir nos combats, mais si la FSF devait participer à un procès tel que Bartz c. Anthropic et constater que nos droits d'auteur et notre licence ont été violés, nous demanderions certainement la liberté des utilisateurs à titre de compensation."
0  4