IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les assureurs rechignent à verser des indemnités colossales pour les réclamations contre les entreprises d'IA,
Ils considèrent que les risques posés par l'IA sont trop importants et trop incertains

Le , par Mathis Lucas

0PARTAGES

3  0 
Les assureurs rechignent à verser des indemnités colossales pour les réclamations contre les entreprises d'IA
ils considèrent que les risques posés par l'IA sont trop importants et trop incertains

Les compagnies d’assurance refusent ou hésitent à indemniser les entreprises d’IA confrontées à des poursuites judiciaires coûteuses. Ces litiges visent des acteurs majeurs, tels qu'Anthropic et OpenAI, accusés d’avoir utilisé sans autorisation des œuvres protégées pour entraîner leurs modèles. Les plaintes concernent la violation de la propriété intellectuelle, la diffusion d’informations erronées ou de conseils dangereux produits par les IA. Ces risques sont difficiles à mesurer et peuvent toucher simultanément de nombreuses victimes. Les compagnies d’assurance jugent ces risques trop importants et trop incertains pour être couverts de manière classique.

En août 2025, un tribunal a certifié la plus grande action collective jamais intentée pour violation du droit d’auteur contre une entreprise technologique. La cible : Anthropic, créatrice du modèle d'IA Claude, accusée d’avoir bâti une partie de son succès sur des données issues d’une bibliothèque massive de livres piratés. Si Anthropic perd cette bataille, l’impact pourrait être dévastateur non seulement pour la startup, mais aussi pour l’ensemble du secteur.

OpenAI fait également face à des poursuites pour violation du droit d'auteur intentées par des auteurs, des éditeurs et des médias américains. Les plaignants comprennent des écrivains connus comme George R.R. Martin, Jonathan Franzen ou encore le New York Times. Ces derniers accusent OpenAI d’avoir copié leurs œuvres protégées pour entraîner son chatbot ChatGPT et ses autres grands modèles de langage (LLM) sans autorisation ni compensation.

Selon le Financial Times, OpenAI et Anthropic envisagent d'utiliser les fonds des investisseurs afin de régler d'éventuelles réclamations issues de poursuites judiciaires portant sur plusieurs milliards de dollars, car les deux entreprises peinent à obtenir le soutien financier des compagnies d'assurance sur cette question.

Les assureurs hésitent face à des risques jugés trop importants

OpenAI et Anthropic disposent d'une couverture d'assurance commerciale traditionnelle, mais selon les initiés du secteur, les fournisseurs de modèles d'IA auront du mal à obtenir une protection couvrant l'intégralité des dommages-intérêts qu'ils pourraient avoir à verser à l'avenir. OpenAI, qui a fait appel au deuxième courtier d'assurance mondial Aon, a obtenu une couverture pouvant atteindre 300 millions de dollars pour les risques émergents liés à l'IA.


Aon a refusé de commenter la situation de chaque entreprise individuellement. Mais Kevin Kalinich, responsable des risques cybernétiques chez Aon, a déclaré à propos du secteur de l'assurance en général : « nous n'avons pas encore suffisamment de capacité pour les fournisseurs [de modèles]. Ce qu'ils ne peuvent pas se permettre de payer, c'est qu'un fournisseur d'IA commette une erreur qui se traduise par... un risque systémique, corrélé et agrégé ».

Les compagnies d’assurance jugent ces risques trop importants et trop incertains pour être couverts de manière classique. Certains acteurs ont pu obtenir des polices limitées (comme OpenAI qui a obtenu 300 millions de dollars), mais ces montants sont largement insuffisants face aux possibles indemnisations à venir.

Les assureurs se retirent en raison des « verdicts nucléaires »

La réticence du secteur à fournir une couverture complète aux entreprises d'IA s'explique par l'ampleur sans précédent des réclamations potentielles auxquelles sont confrontées ces entreprises technologiques relativement jeunes et pour la plupart non rentables. Le risque est accru par le fait que les dommages-intérêts colossaux, appelés « verdicts nucléaires », prononcés à l'encontre des Big Tech américains sont également devenus plus très fréquents.

Outre le procès intenté contre OpenAI par le New York Times et d'autres plaignants pour violation de leurs droits d'auteur, la startup est également poursuivie pour homicide involontaire par les parents d'un adolescent de 16 ans qui s'est suicidé après avoir discuté de méthodes potentielles avec ChatGPT.

Les startups technologiques cherchent des solutions internes

Selon des sources interrogées par le Financial Times, face à la réticence des compagnies d'assurance, les entreprises spécialisées dans l'IA cherchent des solutions internes. OpenAI envisagerait de mettre en place une « auto-assurance », c'est-à-dire de mettre de côté des fonds provenant d'investisseurs afin d'étendre sa couverture. À ce jour, l'entreprise a levé près de 60 milliards de dollars, dont une partie importante dépend d'un projet de restructuration.

Une source a déclaré qu'OpenAI a envisagé de créer une « captive d’assurance », un véhicule d'assurance cloisonné souvent utilisé par les grandes entreprises pour gérer les risques émergents. Les Big Tech tels que Microsoft, Meta et Google ont recours à des captives d’assurance pour couvrir les responsabilités liées à l'ère d'Internet, telles que la cybersécurité ou les réseaux sociaux. OpenAI n'a pas répondu aux questions sur la création d'une telle assurance.

Les captives d'assurance peuvent comporter des risques

Anthropic a accepté de verser 1,5 milliard de dollars pour régler un recours collectif intenté par des auteurs qui l'accusaient d'utiliser des livres piratés pour entraîner ses modèles d'IA. Les avocats d'Anthropic ont averti que le procès risque d'entraîner « des dommages-intérêts sans précédent et potentiellement menaçants pour l'activité de la plus petite des nombreuses entreprises développant l'IA avec les mêmes données de livres ».

Les captives peuvent comporter des risques, car une réclamation importante peut épuiser une captive sous-financée, laissant la société mère vulnérable. Anthropic, qui a levé plus de 30 milliards de dollars à ce jour, utilise en partie ses propres fonds pour le règlement, selon une personne proche du dossier.

Cette situation révèle que le système d’assurance traditionnel n’est pas encore adapté aux nouveaux défis posés par l’IA. Elle souligne aussi l’urgence de clarifier les règles juridiques autour du droit d’auteur, de la responsabilité des algorithmes et de la transparence des données utilisées pour l’entraînement des modèles.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

L'industrie de l'IA au bord du précipice ? La plus grande action collective en matière de droits d'auteur contre Anthropic pourrait ruiner l'industrie de l'IA, selon les associations professionnelles

OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT, mais le New York Times en demande 120 millions afin de rechercher toute violation du droit d'auteur

Rolling Stone, Billboard, Variety et The Hollywood Reporter poursuivent Google en justice et accusent l'entreprise d'avoir volé le contenu de leurs publications pour alimenter les résumés générés par l'IA
Vous avez lu gratuitement 434 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !