IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Droit d'auteur, données et IA générative, l'acteur Joseph Gordon-Levitt pose une question qui dérange : pourquoi les entreprises d'IA semblent pouvoir contourner les lois sans jamais rendre de comptes ?

Le , par Stéphane le calme

65PARTAGES

14  0 
L’acteur et réalisateur américain Joseph Gordon-Levitt n’est pas connu pour des sorties médiatiques tonitruantes sur les enjeux technologiques. Pourtant, ses récentes déclarations sur l’intelligence artificielle ont résonné bien au-delà du monde du cinéma. Dans un contexte d’explosion des usages de l’IA générative et de concentration massive du pouvoir technologique entre quelques entreprises, il pose une question simple, presque naïve en apparence, mais politiquement explosive : pourquoi les entreprises d’IA n’auraient-elles pas à suivre les lois que tout le monde est censé respecter ?

Derrière cette interrogation se cache une inquiétude de plus en plus partagée, y compris parmi les ingénieurs, les juristes et les économistes du numérique. L’IA progresse à une vitesse qui dépasse largement celle des cadres réglementaires, et ce déséquilibre commence à produire des effets concrets, tant sur le travail créatif que sur les libertés individuelles.


Dans une critique acerbe du paysage actuel de l'intelligence artificielle, l'acteur devenu cinéaste puis (de plus en plus) militant pour l'IA Joseph Gordon-Levitt a remis en question la résistance de l'industrie technologique à la réglementation, posant une question rhétorique provocante pour illustrer les dangers d'un développement incontrôlé : « Êtes-vous favorable à des contenus érotiques pour des enfants de 8 ans ? »

S'exprimant lors de la conférence Fortune Brainstorm AI avec le directeur de la rédaction Andrew Nusca, Gordon-Levitt a profité de la session « The Artist and the Algorithm » pour poser une autre question, plus profonde : « Pourquoi les entreprises qui développent cette technologie ne devraient-elles pas être tenues de respecter les lois ? Cela n'a aucun sens. »

Au cours d'une conversation très large couvrant les échecs spécifiques de l'autorégulation, y compris les cas où les « compagnons IA » sur les principales plateformes auraient frôlé l'inapproprié pour les enfants, Gordon-Levitt a fait valoir qu'il ne suffisait pas de s'appuyer sur les politiques internes des entreprises plutôt que sur la législation externe, soulignant que ces fonctionnalités avaient été approuvées par des spécialistes de l'éthique d'entreprise.

Des critiques qui visent en partie Meta, le porte-parole réagit en rappelant que sa femme avait siégé au conseil d'administration d'OpenAI

Joseph Gordon-Levitt parle d’expérience. Acteur, réalisateur, producteur et fondateur de plateformes collaboratives de création, il évolue depuis des années à l’intersection entre culture, technologie et économie numérique. Sa critique ne vise pas l’intelligence artificielle en tant que telle, mais le régime d’exception dont bénéficient, selon lui, les entreprises qui la développent.

Il souligne un paradoxe frappant. Lorsqu’une entreprise traditionnelle viole le droit du travail, la propriété intellectuelle ou la concurrence, elle s’expose à des sanctions. Lorsqu’une entreprise d’IA aspire des milliards de données protégées par le droit d’auteur pour entraîner ses modèles, la question juridique semble soudain floue, voire secondaire. Cette asymétrie nourrit un sentiment d’injustice croissant, en particulier chez les créateurs, journalistes, artistes et développeurs indépendants.

Les critiques de Gordon-Levitt visaient en partie Meta, après que l'acteur ait fait une apparition dans une série de vidéos d'opinion du New York Times diffusant des affirmations similaires. Le porte-parole de Meta, Andy Stone, a vivement réagi sur X (l'ancien Twitter) à l'époque, soulignant que l'épouse de Gordon-Levitt avait auparavant siégé au conseil d'administration d'OpenAI, concurrent de Meta.

Qu'est-ce qui qualifie un « acteur et cinéaste » pour se prononcer sur les questions liées à l'IA (et faire une série d'affirmations inexactes) ? Sans doute parce que, comme @nytopinion le mentionne dans les deux dernières secondes, sa femme est une ancienne membre du conseil d'administration d'OpenAI.
Gordon-Levitt a fait valoir que sans les « garde-fous » du gouvernement, les dilemmes éthiques devenaient des désavantages concurrentiels. Il a expliqué que si une entreprise tente de « donner la priorité au bien public » et de prendre la « voie royale », elle risque d'être « battue par un concurrent qui emprunte la voie basse ». Par conséquent, il a déclaré qu'il pensait que les incitations commerciales seules conduiraient inévitablement les entreprises vers des « résultats sombres », à moins qu'il n'y ait une interaction entre le secteur privé et le droit public.


L’IA, une industrie construite sur une zone grise juridique

Le cœur du problème réside dans la manière dont les modèles d’IA sont entraînés. Textes, images, musiques, vidéos, codes sources : une grande partie de ces contenus proviennent d’œuvres humaines, publiées sur le web dans des contextes qui n’avaient jamais anticipé leur réutilisation massive par des systèmes automatisés.

Les entreprises d’IA invoquent souvent l’argument du « fair use », de l’innovation ou de l’intérêt général. Pourtant, dans la pratique, les créateurs n’ont ni donné leur consentement explicite, ni été rémunérés, ni même informés. Pour Gordon-Levitt, il s’agit là d’un précédent dangereux : une industrie entière qui prospère en contournant les règles fondamentales de responsabilité et de redevabilité.

Une dystopie douce, mais bien réelle

L’acteur met en garde contre une forme de dystopie silencieuse. Contrairement aux récits de science-fiction, il n’est pas question ici de robots armés ou de super-intelligences hostiles, mais d’un glissement progressif vers un monde où la valeur produite par des millions de personnes est captée par quelques acteurs dominants, sans contrepartie équitable.

Cette dystopie est d’autant plus pernicieuse qu’elle est enveloppée dans un discours d’optimisme technologique. L’IA promet des gains de productivité, une créativité augmentée, une démocratisation de l’accès au savoir. Mais sans règles claires, ces promesses risquent de masquer une réalité plus brutale : précarisation des métiers créatifs, concentration du capital, affaiblissement du droit d’auteur et dépendance accrue à des plateformes opaques.

« L'intimité synthétique » et les enfants

Au-delà de l'absence de réglementation, Gordon-Levitt a exprimé sa profonde inquiétude quant à l'impact psychologique de l'IA sur les enfants. Il a comparé les algorithmes utilisés dans les jouets IA à des « machines à sous », affirmant qu'ils utilisaient des techniques psychologiques conçues pour créer une dépendance.

S'appuyant sur des conversations avec Jonathan Haidt, psychologue à l'université de New York, Gordon-Levitt a mis en garde contre « l'intimité synthétique ». Il a fait valoir que, tandis que les interactions humaines contribuent au développement des connexions neuronales dans le cerveau des jeunes enfants, les chatbots IA offrent une interaction « factice » conçue pour diffuser des publicités plutôt que pour favoriser le développement.

« Pour moi, il est assez évident que vous vous engagez sur une très mauvaise voie si vous soumettez vos enfants à cette intimité synthétique que vendent ces entreprises », a-t-il déclaré.

Haidt, dont le best-seller du New York Times, The Anxious Generation, a été recommandé par Gordon-Levitt sur scène, a récemment participé à un symposium organisé par Dartmouth et le Programme des Nations Unies pour le développement sur la santé mentale des jeunes et a utilisé la métaphore des racines d'un arbre pour décrire les neurones. Expliquant que la croissance des racines d'un arbre est structurée par l'environnement, il a montré une photo d'un arbre poussant autour d'une pierre tombale datant de la guerre de Sécession. À propos de la génération Z et de la technologie, en particulier des smartphones, il a déclaré : « Leur cerveau s'est développé autour de leur téléphone, tout comme cet arbre s'est développé autour de cette pierre tombale. » Il a également évoqué les manifestations physiques de cette adaptation, les enfants « se développant voûtés autour de leur téléphone », car l'addiction aux écrans « déforme littéralement les globes oculaires », entraînant une augmentation mondiale de la myopie.


Le discours sur la « course aux armements »

Pour expliquer pourquoi les réglementations ont mis tant de temps à voir le jour, Gordon-Levitt a mis en avant un discours puissant utilisé par les entreprises technologiques : la course géopolitique contre la Chine. Il a décrit ce cadre comme une « histoire » et une « gesticulation » destinées à contourner les contrôles de sécurité. Les entreprises comparent souvent le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 18/12/2025 à 10:28
C'est vraiment une preuve incroyable de manque de sérieux de la part des chercheurs, ça veut dire que certains ne prennent même pas la peine de lire l'abstract...
6  1 
Avatar de Jazzride
Nouveau Candidat au Club https://www.developpez.com
Le 30/12/2025 à 9:29
de mieux en mieux
la couillonnade 2.0

OpenAI travaille à l'ajout de publicités dans ChatGPT, comme la présentation de contenu sponsorisé dans les réponses IA du chatbot,
4  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 18/12/2025 à 22:33
Citation Envoyé par Stéphane le calme Voir le message
L'acteur Joseph Gordon-Levitt pose la question qui dérange : pourquoi les entreprises d’IA semblent pouvoir contourner les lois sans jamais rendre de comptes ?
Je ne sais pas si on peut considérer ça comme une question, ou plutôt comme une évidence, depuis le temps que nous observons les résultats de ce problème : parce que Madame Michu trouve "beau gosse" le mec choisi par le patron des journaux.

À vrai dire, on peut employer le pluriel, puisqu'ils sont encore trois.

Enfin franchement, trois gugusses pour décider de notre avenir ?
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 19/12/2025 à 19:42
Citation Envoyé par OuftiBoy Voir le message
C'est aussi selon moi la démonstration d'un ego assez important pour bon nombre de chercheur. Le but n'est plus de "chercher" mais d'être "publié", quitte à ce que l'on "publie" des articles de bas niveau ou rédigé par une IA. L'important, c'est que le "chercheur" puisse se vanter d'avoir x ou y publications.
Ce n'est pas une question d'ego, c'est comme ça que ça fonctionne, et un certain nombre s'en plaignent depuis longtemps.

Quand j'ai fait une thèse, on avait cette organisation qui faisait qu'on avait une personne en charge du prochain article, pour synchroniser tout le monde vu qu'on y participait tous, et ça tournait dans l'équipe pour chaque article. À un moment c'était mon tour, on n'avait plus rien à publier, on m'a demandé de manière rhétorique si je voulais bien organiser le prochain papier (rhétorique car c'était mon tour de toute façon), ce à quoi j'ai répondu par la négative car "on n'a rien à publier", et on m'a gentiment reposé la question avec insistance, me faisant comprendre que ce n'était pas un argument et qu'il fallait publier quand même. Résultat des courses : on a envoyé une bouse, et j'étais super heureux de voir l'article refusé.

Il y a plusieurs problèmes de fond dans la recherche : la manière d'évaluer les chercheurs basés sur le nombre de publications, qui pousse au "publish or perish" (faut bien qu'ils mangent eux aussi), le double paiement de la recherche (on paye le chercheur pour produire la recherche, puis l'éditeur pour nous y donner accès), la possibilité pour les grosses boîtes d'inonder de publication allant dans leur sens, entraînant un biais des résultats en leur faveur, etc. Maintenant on y ajoute la génération d'article par IA qui hallucinent.
4  1 
Avatar de JPBruneau
Membre éprouvé https://www.developpez.com
Le 22/12/2025 à 9:39
L’affirmation est à moitié vraie, à moitié paresseuse, et souvent utilisée pour éviter de réfléchir sérieusement.
Je vais répondre clairement, en trois temps ...

L’information sur Internet était déjà douteuse avant l’IA
Oui… mais ce n’est pas le vrai sujet
Vrai, factuellement ==>Rumeurs, complots, pseudo-sciences, fake news existaient :
forums
chaînes mail
blogs militants
médias sensationnalistes
Nous produisions de la désinformation depuis toujours

Donc dire « ce n’est pas nouveau » est factuellement exact.
Mais c’est une fausse équivalence, voyon cela,

Avant l’IA :
produire de la désinformation demandait :
du temps
une intention
des compétences
la vitesse et le volume étaient limités

Avec l’IA :

production massive
personnalisée
multilingue
instantanée
indiscernable du vrai pour beaucoup

La nature du problème a changé, pas seulement son existence.
C’est comme dire :
« Il y avait déjà des mensonges avant l’imprimerie »
Vrai, mais totalement hors sujet.

ET LA VOUS DITES: L’IA est responsable de la désinformation »
Non. Elle est un amplificateur, pas une cause !

L’IA :
ne crée pas l’intention
n’a pas d’opinion
ne cherche pas à tromper

Elle amplifie ce que les humains font déjà :
propagande
marketing agressif
manipulation politique
escroquerie

Accuser l’IA seule, c’est :

se donner bonne conscience
éviter de parler : d’éducation, de plateformes ,de modèles économiques, de responsabilité humaine

Peut-on se prémunir de toute la désinformation ?
Non. Absolument pas, Et toute personne honnête doit le dire.
_______________________________________________________
Vouloir une protection totale = pure illusion (exemple les infos de LCI !)
Comme vouloir « zéro mensonge » dans une société humaine

Ce qui est possible (et réaliste)
1) Développer l’esprit critique (le seul vrai rempart) Qui parle ? À qui ça profite ? Quelle source primaire ? Quel intérêt caché ?

C’est plus important que la technologie !

2) Multiplier les sources , Jamais une seule source , Croiser : médias , documents , données brutes ,

3) Comprendre comment l’IA fonctionne:

Savoir qu’un texte fluide est diferent de vrai
Savoir qu’une image plausible diferent réelle
Savoir qu’un chiffre cité doit être vérifié
La pédagogie IA est urgente.

4) Artifices concrets (ce que je fais, moi)

Vérifier les dates
Vérifier l’auteur réel
Aller aux sources originales
Se méfier des contenus :
trop parfaits
trop émotionnels
trop alignés avec ce que j’aime entendre

Votre afirmation est souvent utilisée pour dire :
« Ce n’est pas si grave »
« On n’y peut rien »
« C’était déjà comme ça »

C’est intellectuellement paresseux
Et politiquement confortable
3  0 
Avatar de dominix.e
Nouveau Candidat au Club https://www.developpez.com
Le 29/12/2025 à 22:14
j'aimerais rappeler que l'IA "n'invente" rien.
Si quelqu'un lui demande de faire des faux article scientifique alors l'IA le fait, mais ce n'est pas de sa responsabilité de le publier.
je pense qu'il faut être clair et éviter ce sensationnalisme à 2 balle, qui ne vise qu'a attirer les complotistes et autre tordu en recherche d’étrange.
merci de votre attention.
4  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 30/12/2025 à 12:16
Je suis impatient de lire les prochains scandales du style "l'IA accompagne sa réponse à un adolescent candidat au suicide avec de la pub pour des armes ou pour des poisons destinés à tuer les rats de sa cave" ou pire encore...
3  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 08/01/2026 à 18:34
Un encart pub dans un coin ne poserait pas pb, mais s'ils intègrent ça dans les prompts de réponse, ils vont juste saboter tout intérêt (et le peu de confiance) en leur l'IA.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 18/12/2025 à 23:56
AoCannaille,

Citation Envoyé par AoCannaille Voir le message
C'est vraiment une preuve incroyable de manque de sérieux de la part des chercheurs, ça veut dire que certains ne prennent même pas la peine de lire l'abstract...
C'est aussi selon moi la démonstration d'un ego assez important pour bon nombre de chercheur. Le but n'est plus de "chercher" mais d'être "publié", quitte à ce que l'on "publie" des articles de bas niveau ou rédigé par une IA. L'important, c'est que le "chercheur" puisse se vanter d'avoir x ou y publications.

C'est pas nouveau, mais l'IA aggrave ces cas...

Bah, je ne suis pas un chercheur, et je ne cherche pas ce que cherche ces chercheurs.

BàV et Peace & Love.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 30/12/2025 à 12:38
Citation Envoyé par Anselme45 Voir le message
Je suis impatient de lire les prochains scandales du style "l'IA accompagne sa réponse à un adolescent candidat au suicide avec de la pub pour des armes ou pour des poisons destinés à tuer les rats de sa cave" ou pire encore...
Peut-être y a-t-il moyen de se contenter de savoir que :
  • c'est déjà arrivé
  • c'est conforme aux objectifs de l'IA de rapporter des sous
  • le tout avec la bénédiction de "nos" chers députés, qui trouvent là un moyen de collecter de nouveaux impôts(*), comme un temps les drogues dures


En effet.

(*) nouveaux impôts dont nous aimerions avoir des nouvelles, d'ailleurs
2  0