IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les assureurs rechignent à verser des indemnités colossales pour les réclamations contre les entreprises d'IA,
Ils considèrent que les risques posés par l'IA sont trop importants et trop incertains

Le , par Mathis Lucas

175PARTAGES

4  0 
Les assureurs rechignent à verser des indemnités colossales pour les réclamations contre les entreprises d'IA
ils considèrent que les risques posés par l'IA sont trop importants et trop incertains

Les compagnies d’assurance refusent ou hésitent à indemniser les entreprises d’IA confrontées à des poursuites judiciaires coûteuses. Ces litiges visent des acteurs majeurs, tels qu'Anthropic et OpenAI, accusés d’avoir utilisé sans autorisation des œuvres protégées pour entraîner leurs modèles. Les plaintes concernent la violation de la propriété intellectuelle, la diffusion d’informations erronées ou de conseils dangereux produits par les IA. Ces risques sont difficiles à mesurer et peuvent toucher simultanément de nombreuses victimes. Les compagnies d’assurance jugent ces risques trop importants et trop incertains pour être couverts de manière classique.

En août 2025, un tribunal a certifié la plus grande action collective jamais intentée pour violation du droit d’auteur contre une entreprise technologique. La cible : Anthropic, créatrice du modèle d'IA Claude, accusée d’avoir bâti une partie de son succès sur des données issues d’une bibliothèque massive de livres piratés. Si Anthropic perd cette bataille, l’impact pourrait être dévastateur non seulement pour la startup, mais aussi pour l’ensemble du secteur.

OpenAI fait également face à des poursuites pour violation du droit d'auteur intentées par des auteurs, des éditeurs et des médias américains. Les plaignants comprennent des écrivains connus comme George R.R. Martin, Jonathan Franzen ou encore le New York Times. Ces derniers accusent OpenAI d’avoir copié leurs œuvres protégées pour entraîner son chatbot ChatGPT et ses autres grands modèles de langage (LLM) sans autorisation ni compensation.

Selon le Financial Times, OpenAI et Anthropic envisagent d'utiliser les fonds des investisseurs afin de régler d'éventuelles réclamations issues de poursuites judiciaires portant sur plusieurs milliards de dollars, car les deux entreprises peinent à obtenir le soutien financier des compagnies d'assurance sur cette question.

Les assureurs hésitent face à des risques jugés trop importants

OpenAI et Anthropic disposent d'une couverture d'assurance commerciale traditionnelle, mais selon les initiés du secteur, les fournisseurs de modèles d'IA auront du mal à obtenir une protection couvrant l'intégralité des dommages-intérêts qu'ils pourraient avoir à verser à l'avenir. OpenAI, qui a fait appel au deuxième courtier d'assurance mondial Aon, a obtenu une couverture pouvant atteindre 300 millions de dollars pour les risques émergents liés à l'IA.


Aon a refusé de commenter la situation de chaque entreprise individuellement. Mais Kevin Kalinich, responsable des risques cybernétiques chez Aon, a déclaré à propos du secteur de l'assurance en général : « nous n'avons pas encore suffisamment de capacité pour les fournisseurs [de modèles]. Ce qu'ils ne peuvent pas se permettre de payer, c'est qu'un fournisseur d'IA commette une erreur qui se traduise par... un risque systémique, corrélé et agrégé ».

Les compagnies d’assurance jugent ces risques trop importants et trop incertains pour être couverts de manière classique. Certains acteurs ont pu obtenir des polices limitées (comme OpenAI qui a obtenu 300 millions de dollars), mais ces montants sont largement insuffisants face aux possibles indemnisations à venir.

Les assureurs se retirent en raison des « verdicts nucléaires »

La réticence du secteur à fournir une couverture complète aux entreprises d'IA s'explique par l'ampleur sans précédent des réclamations potentielles auxquelles sont confrontées ces entreprises technologiques relativement jeunes et pour la plupart non rentables. Le risque est accru par le fait que les dommages-intérêts colossaux, appelés « verdicts nucléaires », prononcés à l'encontre des Big Tech américains sont également devenus plus très fréquents.

Outre le procès intenté contre OpenAI par le New York Times et d'autres plaignants pour violation de leurs droits d'auteur, la startup est également poursuivie pour homicide involontaire par les parents d'un adolescent de 16 ans qui s'est suicidé après avoir discuté de méthodes potentielles avec ChatGPT.

Les startups technologiques cherchent des solutions internes

Selon des sources interrogées par le Financial Times, face à la réticence des compagnies d'assurance, les entreprises spécialisées dans l'IA cherchent des solutions internes. OpenAI envisagerait de mettre en place une « auto-assurance », c'est-à-dire de mettre de côté des fonds provenant d'investisseurs afin d'étendre sa couverture. À ce jour, l'entreprise a levé près de 60 milliards de dollars, dont une partie importante dépend d'un projet de restructuration.

Une source a déclaré qu'OpenAI a envisagé de créer une « captive d’assurance », un véhicule d'assurance cloisonné souvent utilisé par les grandes entreprises pour gérer les risques émergents. Les Big Tech tels que Microsoft, Meta et Google ont recours à des captives d’assurance pour couvrir les responsabilités liées à l'ère d'Internet, telles que la cybersécurité ou les réseaux sociaux. OpenAI n'a pas répondu aux questions sur la création d'une telle assurance.

Les captives d'assurance peuvent comporter des risques

Anthropic a accepté de verser 1,5 milliard de dollars pour régler un recours collectif intenté par des auteurs qui l'accusaient d'utiliser des livres piratés pour entraîner ses modèles d'IA. Les avocats d'Anthropic ont averti que le procès risque d'entraîner « des dommages-intérêts sans précédent et potentiellement menaçants pour l'activité de la plus petite des nombreuses entreprises développant l'IA avec les mêmes données de livres ».

Les captives peuvent comporter des risques, car une réclamation importante peut épuiser une captive sous-financée, laissant la société mère vulnérable. Anthropic, qui a levé plus de 30 milliards de dollars à ce jour, utilise en partie ses propres fonds pour le règlement, selon une personne proche du dossier.

Cette situation révèle que le système d’assurance traditionnel n’est pas encore adapté aux nouveaux défis posés par l’IA. Elle souligne aussi l’urgence de clarifier les règles juridiques autour du droit d’auteur, de la responsabilité des algorithmes et de la transparence des données utilisées pour l’entraînement des modèles.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

L'industrie de l'IA au bord du précipice ? La plus grande action collective en matière de droits d'auteur contre Anthropic pourrait ruiner l'industrie de l'IA, selon les associations professionnelles

OpenAI propose 20 millions de conversations utilisateur dans le cadre du procès ChatGPT, mais le New York Times en demande 120 millions afin de rechercher toute violation du droit d'auteur

Rolling Stone, Billboard, Variety et The Hollywood Reporter poursuivent Google en justice et accusent l'entreprise d'avoir volé le contenu de leurs publications pour alimenter les résumés générés par l'IA
Vous avez lu gratuitement 806 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 04/03/2026 à 16:15
Marrant... Certains voudraient donc que la propriété intellectuelle des IA soit protégées alors que ces IA ont été développées en VIOLANT la propriété intellectuelle des autres?

On arrête pas le progrès
7  2 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 06/03/2026 à 11:09
Citation Envoyé par Anselme45 Voir le message
Marrant... Certains voudraient donc que la propriété intellectuelle des IA soit protégées alors que ces IA ont été développées en VIOLANT la propriété intellectuelle des autres?

On arrête pas le progrès
Citation Envoyé par popo Voir le message
Entièrement d'accord avec toi Anselme45.
Il y en a qui ont vraiment un sacré culot.
Je suis sidéré que vos commentaires aient reçu des pouces négatifs
ça laisse perplexe sur la mentalité ou le niveau intellectuel de certains
5  0 
Avatar de shenron666
Expert confirmé https://www.developpez.com
Le 06/03/2026 à 11:18
Citation Envoyé par calvaire Voir le message
l'ia est capable en 2026 de faire un code de meilleur qualité ou une musique de meilleur qualité que la moyenne, c'est plus un critère.
meilleure (avec un e) qualité ? non, l'ia code plus vite mais la qualité clairement nécessite une revue et des ajustements

Citation Envoyé par calvaire Voir le message
Pour les photos, 100% des photos sur smartphones sont des photos ia
100% ? c'est totalement faux
à la maison sur 4 smartphones, aucun n'utilise l'ia (trop anciens)

Citation Envoyé par calvaire Voir le message
Pour les videos, on commence à arriver a faire des vidéos plus vrai que vrai, ou des meilleurs vfx que le seigneur des anneaux
source ?
après quelques secondes on remarque des incohérences dans les mouvements sur la grande majorité des vidéos générées par ia

Citation Envoyé par calvaire Voir le message
Moi je veux qu'on m'explique comment on va dire ce code c'est fait pas une ia donc non protegable, ou cette image/musique est faite par ia ?
Je génère un prompte, et j'ajoute un petit filtre dans photoshop et c'est bon c'est une image humaine ? Une photo sur smartphone c'est quoi ? car toutes les photos des smartphones passe dans un npu et une ia qui "devine" les détails désormais.
encore une fois, tous les smartphones n'ont pas de npu, tu généralises beaucoup trop

Citation Envoyé par calvaire Voir le message
On va juste rentrer dans une société ou 100% des personnes vont utiliser l'ia mais personne ne va l'avouer (musiciens, codeurs, graphistes, studio d'effet spatiaux...), on le voit déjà sur steams, peu de studios avouent utiliser l'ia car souvent ça provoque un bad buzz. Mais il n'y a pas de mal, l'ia genre de bonne musique d'ambiances, de beau décors, permet de générer plus vite le code...etc. Il faut arrêter de se voiler la face et de cracher dans ce formidable outil.
il est impératif que des lois encadrent l'utilisation en imposant notamment que l'auteur indique explicitement lorsqu'une oeuvre est générée par ia
un formidable outil peut vite dégénérer en outil "mortel"
5  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 04/03/2026 à 17:02
Entièrement d'accord avec toi Anselme45.
Il y en a qui ont vraiment un sacré culot.
5  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 02/03/2026 à 8:02
Citation Envoyé par ChristianRoberge Voir le message
Il ne faut pas oublier ici que l'IA a basé son apprentissage sur les œuvres existantes sans leur demander leur permission ni leur donner aucune compensation.
C'est pour ça que le système de Sony n'est qu'un sparadrap de mon point de vue.
L'artiste inconnu dont la musique inspire à 0% le tube IA de l'été devrait être rétribué malgré tout parce que sans lui l'IA (ou sa société) ne pourrait pas prétendre à être aussi performante.
Identifier l'artiste n'aide pas tant que ça parce que chaque artiste légitime contre son gré le "système IA"
Certain me diront que c'est extrêmes car cela voudrait dire que l'IA serait pas bani (Non profitable), Oui, mais est-ce que cela serait un grande perte pour nos sociétés et cultures.
Depuis quelques temps j'entends des jeunes groupes qui existent vraiment (présence en concert/festival etc) qui ont à la fois une identité musicale propre mais aussi un mélange très "IA compatible" et une composition très convenue.
Bref je soupçonne que certains musiciens utilisent l'IA pour leur écrire un tube qu'ils interprètent eux même.
Je me pose une vraie question par rapport à ces groupes:
Est ce que c'est moi qui délire à voir de l'IA partout? (Est ce que ce changement dans les jeunes groupes est un biais ou un vrai constat?)
Est-il mieux ou pareil d'avoir un groupe IA incarné qu'un groupe IA? (Ma réponse est que ça dépend de s'ils arrivent à se développer ensuite et proposent une musique vraiment intéressante. Je trouve normal qu'une jeune groupe fasse une première proposition convenue, moins pour la deuxième).
2  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 06/03/2026 à 0:19
C'est un décision noble. Mais en pratique, il va être de plus en plus difficile de distinguer l'art généré avec ou créé sans IA.
2  0 
Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 25/02/2026 à 19:32
Bravo à Sony pour cette initiative. Les auteurs et artistes ont déjà assez de difficulté à revendiquer leur droit d'auteur. Il ne faut pas oublier ici que l'IA a basé son apprentissage sur les œuvres existantes sans leur demander leur permission ni leur donner aucune compensation. Pour cet affront, les gens qui pensent amasser de l'argent avec une œuvre IA devrait payer très cher leur fourberie.
Idéalement, les œuvres IA devrait retourner tous les profits et campagne qu'il ont investit pour le redonner aux artistes concernés. Certain me diront que c'est extrêmes car cela voudrait dire que l'IA serait pas bani (Non profitable), Oui, mais est-ce que cela serait un grande perte pour nos sociétés et cultures.
1  0 
Avatar de ChristianRoberge
Membre habitué https://www.developpez.com
Le 12/03/2026 à 21:48
Non, l'IA ne fait pas mieux. Quand on dire meilleur code ou meilleur musique, c'est un critère très subjectif. Prenons le domaine musical car j'ai travaillé plusieurs années à construire des logiciels qui détecte le meilleur chanteur ou la meilleure chanson. Mes algorithmes étaient hyper performant pour ce qui est de juger la performance chantée. Pourtant, il n'y avait aucune IA car le tout était basé sur les modèles physiques et musicaux. En prime, le programme pouvait déterminer les chansons manipulées (Ou probablement généré par IA) car l'informatique ne tient pas compte des contraintes humaines du chant. Ça, je ne pense pas que l'IA sera capable de gérer cela de sitôt.

Une approche plus IA était utilisée pour prédire le succès d'une chanson (Ici succès n'est pas synonyme de meilleur). Ici le programme échouait, non pas parce qu'il était mal conçu mais parce qu'il ne tenait pas compte des caractéristiques de notre cerveau. Quand nous aimons une chanson nous sommes prêts à l'acheter et aller voir l'artiste en spectacle. Toutefois, notre intérêt diminue avec le temps si la chanson est trop souvent répétée. L'IA ne peut pas prendre cette information en compte car elle ne dépend pas d'information que nous pouvons acquérir par les données et chansons du passé et surtout que cette appréciation est dépendante de chacun de nous. L'IA ne peut pas faire de "meilleurs" chansons qu'un humain car elle ne comprend pas le concept de meilleur.

Il faudrait peut-être arrêter de prendre l'IA pour un dieu hyper intelligent qui sait tout et qui peut tout faire (mieux que nous?). Il y a plein de truc que l'IA ne sait pas faire et je ne vois pas le jour où elle pourra le faire. Par exemple, souvent dans des recherches innovatrices les chercheurs font des liens entre plusieurs domaines. L'IA est loin, très loin, de faire cela...
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 12/03/2026 à 21:59
En tout cas, comme suggéré dans un autre fil, il y a un domaine où l'IA semble en position de fournir des performances supérieures à celles dont se sont montrés capables les humains, pourtant redoutables, c'est de détruire la confiance en imitant le travail des gens, et en fournissant pour une bouchée de pain une imitation de quelque chose que les humains se sont donné de la peine à apprendre pour fournir quelque chose d'opérationnel.

Sauf qu'un humain qui fait ça ne tarde guère à se prendre une rouste, alors que l'IA semble considérée comme sacrée donc on ne peut pas la remettre en cause.

Enfin ... Pour l'instant. Mais pour ce qui est de nous remplacer par des immigrés, il a fallu 40 ans pour "en revenir". Si il faut autant de temps avec l'IA, ça promet.
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 12/03/2026 à 22:31
Citation Envoyé par shenron666 Voir le message
Je suis sidéré que vos commentaires aient reçu des pouces négatifs
ça laisse perplexe sur la mentalité ou le niveau intellectuel de certains
J'ai repéré, ailleurs, que ce genre de chose se pratique facilement "en douce, sans rien dire à personne".

Donc, ça pourrait être sans en penser un mot, que ça serait pareil.
0  0