Un juge fédéral américain vient de certifier la plus vaste class action jamais intentée pour violation du droit d’auteur contre une entreprise technologique. La cible : Anthropic, créatrice du modèle Claude, accusée d’avoir bâti une partie de son succès sur des données issues d’une massive bibliothèque de livres piratés. Derrière cette affaire se joue un débat fondamental : l’IA peut-elle prospérer sur la base d’une appropriation massive de contenus protégés ? Et si la justice tranche sévèrement, l’impact pourrait être dévastateur non seulement pour Anthropic, mais pour l’ensemble du secteur.Contexte
En août 2024, les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson ont intenté un recours collectif contre Anthropic dans le district nord de la Californie. L'action en justice accuse Anthropic, développeur de Claude AI, d'avoir entraîné son chatbot sur des copies pirates de livres protégés par le droit d'auteur, sans consentement ni compensation. Mais Anthropic soutient que l'entraînement de l'IA sur des œuvres protégées relève de l'usage loyal.
En avril 2025, Anthropic a déposé son opposition à la requête en certification de recours collectif, arguant qu'un recours collectif en matière de droit d'auteur portant sur des millions de livres n'était pas gérable et que les questions étaient trop distinctes pour être résolues dans le cadre d'un recours collectif.
Dans le cadre de cet argument, Anthropic a mis en garde contre « la perspective de dommages-intérêts légaux ruineux - 150 000 dollars multipliés par 5 millions de livres » : cela représenterait 750 milliards de dollars. Un mois plus tard, une audience a eu lieu concernant la requête d'Anthropic en vue d'obtenir un jugement sommaire sur l'usage loyal, qui a examiné dans quelle mesure l'utilisation des œuvres en question pouvait être qualifiée d'usage loyal.
Le juge William Alsup, de la cour fédérale du district nord de Californie, a rendu un jugement sommaire en faveur d'Anthropic, estimant que l'utilisation des livres protégés par le droit d'auteur à des fins de formation et le passage du format papier au format numérique constituent tous deux un « usage loyal ». Il s'agit d'une décision inédite en faveur de l'industrie de l'IA, mais elle est surtout limitée aux livres physiques qu'Anthropic a achetés et numérisés.
Malgré sa victoire, Anthropic doit toujours faire face à un procès pour piratage, pour lequel le juge William Alsup a estimé qu'il ne s'agissait pas d'une utilisation équitable. Anthropic est accusé d'avoir téléchargé jusqu'à sept millions de livres piratés afin de constituer une bibliothèque de recherche où les copies seraient conservées « à jamais », qu'elles aient été utilisées ou non dans le cadre de l'entraînement de ses grands modèles de langage.
Ayant apparemment compris que le piratage pouvait entraîner des poursuites judiciaires, Anthropic a ensuite tenté de remplacer les livres piratés par des copies achetées légalement. Toutefois, l’entreprise a également soutenu que même la copie initiale de ces livres piratés constituait une étape « intermédiaire » nécessaire pour permettre un usage transformateur dans l’entraînement de l’IA. Un argument largement controversé que le tribunal a rejeté.
Ce qui rend cette affaire explosive, c’est qu’Anthropic n’est probablement pas un cas isolé. Dans les cercles techniques, il est de notoriété publique que de nombreux modèles ont été formés sur des corpus partiellement ou totalement illégaux : bibliothèques pirates, dépôts GitHub sans licence, archives web contenant du contenu protégé…
Si la justice établit un précédent strict, toute l’industrie pourrait se retrouver dans la ligne de mire : OpenAI, Google DeepMind, Meta, Stability AI et bien d’autres. Le procès Anthropic pourrait alors devenir l’équivalent, pour l’IA, de l’affaire Napster dans l’industrie musicale — un moment de rupture imposant de nouvelles règles du jeu.
Anthropic est dans la tourmente
Les groupes industriels du secteur de l'IA exhortent une cour d'appel à bloquer ce qu'ils qualifient de plus grande action collective jamais certifiée en matière de droits d'auteur. Ils ont averti qu'un seul procès intenté par trois auteurs contre Anthropic pour sa formation en IA menace désormais de « ruiner financièrement » l'ensemble du secteur de l'IA si jusqu'à 7 millions de plaignants finissent par se joindre au litige et imposer un règlement.
Il y a quelques jours, Anthropic a déposé une requête en appel contre la certification du recours collectif, exhortant la cour à examiner des questions que le juge du tribunal de district, William Alsup, ne semble pas avoir prises en compte. Selon Anthropic, Alsup n'aurait pas procédé à une « analyse rigoureuse » du recours collectif potentiel et aurait plutôt fondé son jugement sur ses « 50 ans » d'expérience.
Si la cour d'appel rejette la requête, Anthropic estime que l'entreprise émergente pourrait être condamnée. Comme l'a fait valoir Anthropic, elle « risque désormais de devoir payer des centaines de milliards de dollars de dommages-intérêts lors du procès qui se tiendra dans quatre mois », sur la base d'une certification de recours collectif précipitée à une « vitesse fulgurante » qui concerne « jusqu'à sept millions de plaignants potentiels, dont les œuvres couvrent un siècle d'histoire de l'édition », chacun pouvant déclencher une amende de 150 000 dollars.
Un pillage massif au cœur du dossier
L'action collective met en lumière le cœur du problème de l'IA générative : l'entraînement des modèles sur des masses de données non autorisées. Pour atteindre leur niveau de performance actuel, des modèles comme Claude d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

