IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La plateforme X d'Elon Musk visée par neuf plaintes de NOYB relatives à la protection de la vie privée
Après s'être emparée des données d'utilisateurs de l'UE pour former son IA Grok

Le , par Jade Emy

9PARTAGES

5  0 
Après l'action en justice en Irlande, la plateforme X d'Elon Musk fait maintenant face aux plaintes de Noyb dans 9 pays de l'Union européenne. Il est reproché à la plateforme de médias sociaux de s'être emparée de données d'utilisateurs de l'UE afin d'entraîner l'IA Grok sans leur consentement. Noyb a demandé une "procédure d'urgence", car ce que la plateforme fait est une violation du RGPD à grande échelle.

Récemment, la Commission de protection des données en Irlande (DPC) a engagé une procédure judiciaire à l'encontre de la plateforme X. La DPC indique que ses préoccupations portent sur l'utilisation des données d'utilisateurs dans l'Union européenne/l'Espace économique européen, pour former les systèmes d'intelligence artificielle utilisés par X, y compris son outil de recherche amélioré connu sous le nom de Grok.

La DPC est également préoccupé par l'intention de la plateforme X de lancer la prochaine version de Grok, qui aurait été formée en utilisant les données personnelles des utilisateurs de l'UE/EEE. Selon la DPC, cela aggraverait les difficultés liées au traitement des données en question. Il est également affirmé que la plateforme X a refusé les demandes de la DPC de cesser le traitement des données personnelles en question ou de reporter le lancement de la prochaine édition de "Grok". Afin de clarifier la légalité du traitement des données des utilisateurs par Twitter International, la DPC a également l'intention de saisir le Conseil européen de la protection des données pour examen.

Suite à cela, le groupe de défense autrichien NOYB a déposé une plainte contre la plateforme de médias sociaux X, accusant la société détenue par Elon Musk d'entraîner son intelligence artificielle (IA) avec les données personnelles des utilisateurs sans leur consentement, en violation de la législation européenne sur la protection de la vie privée. Le groupe dirigé par le militant de la vie privée Max Schrems a annoncé qu'il avait déposé des plaintes au titre du règlement général sur la protection des données (RGPD) auprès des autorités de neuf pays de l'Union européenne afin d'accentuer la pression sur l'autorité irlandaise chargée de la protection des données, la DPC.


La Commission irlandaise de protection des données, principal régulateur de l'UE pour la plupart des grandes entreprises américaines de l'internet en raison de l'emplacement de leurs opérations européennes dans le pays, a demandé une ordonnance pour suspendre ou restreindre le traitement par X des données des utilisateurs à des fins de développement, d'entraînement ou d'affinement de ses systèmes d'IA. X a accepté de ne pas former ses systèmes d'intelligence artificielle en utilisant des données personnelles collectées auprès d'utilisateurs de l'UE avant qu'ils n'aient eu la possibilité de retirer leur consentement.

Cependant, NOYB a déclaré que la plainte de la DPC concernait principalement les mesures d'atténuation et le manque de coopération de la part de X, et ne remettait pas en question la légalité du traitement des données lui-même. "Nous voulons nous assurer que Twitter respecte pleinement la législation de l'UE, qui exige - au minimum - de demander le consentement des utilisateurs dans ce cas", a déclaré M. Schrems dans un communiqué, en faisant référence à X sous son ancien nom.

Lors de l'audience face à la DPC, un tribunal irlandais a estimé que X n'avait donné à ses utilisateurs la possibilité de s'opposer que plusieurs semaines après le début de la collecte des données. Le compte X Global Government Affairs a déclaré que l'entreprise continuerait à travailler avec la DPC sur les questions liées à l'IA.

Pour rappel, en juin, Meta, la société mère de Facebook, a annoncé qu'elle ne lancerait pas son assistant d'intelligence artificielle en Europe pour le moment, après que la DPC irlandaise lui a demandé de retarder son projet. NOYB avait déposé des plaintes dans plusieurs pays contre l'utilisation de données personnelles pour former le logiciel dans ce cas également.

La plateforme de médias sociaux X fait l'objet de 9 nouvelles plaintes par Noyb au titre du RGPD

Pour Noyb, Twitter International (aujourd'hui rebaptisé "X") a commencé à utiliser illégalement les données personnelles de plus de 60 millions d'utilisateurs dans l'UE/EEE pour former ses technologies d'IA (comme "Grok") sans leur consentement. Contrairement à Meta (qui a récemment dû mettre fin à l'entraînement à l'IA dans l'UE), Twitter n'a même pas informé ses utilisateurs à l'avance.

Si la Commission irlandaise de protection des données (DPC) a lancé une procédure judiciaire contre Twitter pour mettre fin au traitement illégal, Noyb estime que la DPC s'est arrêtée avant d'appliquer pleinement le RGPD. Pour faire suite à cette initiative, Noyb a déposé neuf plaintes et a partagé les raisons qui ont poussé le groupe de défense à déposer les plaintes contre la plateforme X.

Les données personnelles de 60 millions de personnes pour entraîner l'IA ? Comme si la tentative ratée de Meta d'utiliser illégalement les données personnelles des gens pour des projets d'IA n'avait pas envoyé un message suffisamment clair, X est la prochaine entreprise américaine à aspirer les données des utilisateurs de l'UE pour entraîner l'IA. En mai 2024, X a commencé à intégrer de manière irréversible les données des utilisateurs européens dans sa technologie d'IA "Grok", sans jamais les en informer ni leur demander leur consentement.

La DPC irlandaise prend des mesures timides. L'ignorance flagrante de la loi par X a suscité une réponse surprenante de la part de la DPC irlandaise (notoirement pro-entreprises) : l'autorité a engagé une action en justice contre Twitter pour mettre fin au traitement illégal et faire appliquer une ordonnance de mise en conformité de ses systèmes avec le RGPD.

Cependant, une audience du tribunal a révélé que la DPC semble avoir été principalement préoccupé par les mesures dites "d'atténuation" et par le fait que X a commencé le traitement tout en étant encore dans un processus de consultation obligatoire avec la DPC en vertu de l'article 36 du RGPD. Noyb en conclue que la DPC ne semble pas s'intéresser aux violations fondamentales.

Citation Envoyé par Max Schrems, président de noyb
"Les documents du tribunal ne sont pas publics, mais d'après l'audience, nous comprenons que la DPC ne remettait pas en question la légalité de ce traitement lui-même. Il semble que lA DPC se préoccupe des "mesures d'atténuation" et du manque de coopération de Twitter. La DPC semble prendre des mesures à la marge, mais s'éloigne du cœur du problème".

Noyb demande une enquête approfondie. Dès la première audience, la DPC irlandaise s'est entendu avec X (par le biais d'un "engagement") pour suspendre jusqu'en septembre l'entraînement de l'algorithme avec les données de l'UE. Pour Noyb, aucune décision sur la légalité n'a été prise et de nombreuses questions restent sans réponse. Par exemple : Qu'est-il advenu des données européennes déjà intégrées dans les systèmes et comment X peut-il (correctement) séparer les données européennes des données non européennes ?

Pour cette raison, Noyb a déposé des plaintes RGPD auprès des autorités de protection des données de neuf pays, afin de s'assurer que les problèmes juridiques fondamentaux autour de l'entraînement à l'IA de Twitter soient entièrement résolus. Plus les autres autorités de protection des données de l'UE s'impliqueront dans la procédure, plus la pression exercée sur l'autorité irlandaise de protection des données sera forte et plus X devra se conformer à la législation de l'UE.

Citation Envoyé par Max Schrems
"Nous avons vu d'innombrables exemples d'application inefficace et partielle de la loi par la DPC au cours des dernières années. Nous voulons nous assurer que Twitter se conforme pleinement à la législation européenne, qui exige - au minimum - de demander le consentement des utilisateurs dans ce cas.
Pour Noyb, il suffit de demander aux utilisateurs ! Le RGPD de l'UE offre une solution simple pour que les utilisateurs puissent "faire don" de leurs données personnelles pour le développement de l'IA : il suffit de demander aux utilisateurs leur consentement clair à un tel traitement. Si un petit nombre des 60 millions d'utilisateurs de X consentait à l'entraînement de ses systèmes d'IA, X disposerait de suffisamment de données d'entraînement pour n'importe quel nouveau modèle d'IA.

Mais selon Noyb, X n'a pas l'intention de demander l'autorisation des utilisateurs. Au lieu de cela, il se contente de prendre les données des utilisateurs sans les informer et sans leur demander l'autorisation.

Citation Envoyé par Max Schrems
"Les entreprises qui interagissent directement avec les utilisateurs ont simplement besoin de leur montrer un message oui/non avant d'utiliser leurs données. Elles le font régulièrement pour beaucoup d'autres choses, et cela serait donc tout à fait possible pour l'apprentissage de l'IA."
Les intérêts commerciaux l'emportent-ils sur les droits fondamentaux des utilisateurs ? Avec tout cela, Noyb se pose la question. Normalement, le traitement des données à caractère personnel est illégal par défaut dans l'Union européenne. Par conséquent, pour traiter des données personnelles, X doit s'appuyer sur l'une des six bases juridiques prévues à l'article 6, paragraphe 1, du RGPD.

Bien que le choix logique soit le consentement explicite, X - tout comme Meta - affirme qu'il a un "intérêt légitime" qui l'emporte sur les droits fondamentaux des utilisateurs. Noyob rappelle que cette approche a déjà été rejetée par la Cour de justice dans une affaire concernant l'utilisation par Meta de données personnelles à des fins de publicité ciblée. Cependant, il semble que la DPC irlandaise ait, au cours des derniers mois, "négocié" sur l'approche de l'"intérêt légitime" dans le cadre d'une procédure de "consultation" au titre de l'article 36 du RGPD.

Citation Envoyé par Max Schrems
"Les faits que nous connaissons maintenant grâce à la procédure judiciaire irlandaise indiquent que la DPC n'a pas vraiment remis en question la question centrale, qui est de prendre toutes ces données personnelles sans le consentement de l'utilisateur".
Informations fournies par le biais d'un message X "viral". Selon Noyb, X n'a jamais informé ses utilisateurs de manière proactive que leurs données personnelles étaient utilisées pour entraîner l'IA - même s'il leur envoie des notifications chaque fois que quelqu'un aime ou retweete leurs messages. Au contraire, il semble que la plupart des gens aient découvert le nouveau paramètre par défaut grâce à un message viral d'un utilisateur nommé "@EasyBakedOven" le 26 juillet 2024, soit plus de deux mois après le début de l'entraînement de l'IA.


Voici quelques points juridiques soulignés par Noyb concernant ses plaintes :

Qu'en est-il des autres droits conférés par le RGPD ? À l'heure actuelle, les fournisseurs de systèmes d'IA affirment en grande partie qu'ils ne sont pas en mesure de se conformer à d'autres exigences du RGPD, telles que le droit à l'oubli (article 17 du RGPD), une fois que les données ont été ingérées dans leurs systèmes d'IA. De même, les entreprises ont tendance à affirmer qu'elles ne peuvent pas répondre aux demandes visant à obtenir une copie des données à caractère personnel contenues dans les données de formation ou les sources de ces données (comme l'exige l'article 15 du RGPD), et qu'elles ne peuvent pas non plus corriger les données à caractère personnel inexactes (comme l'exige l'article 16 du RGPD). Cela soulève des questions supplémentaires lorsqu'il s'agit de l'ingestion illimitée de données à caractère personnel dans les systèmes d'IA.

Les violations du RGPD à grande échelle justifient une procédure d'urgence. Étant donné que Twitter a déjà commencé à traiter les données des personnes pour sa technologie d'IA, et qu'il n'y a essentiellement aucune option pour supprimer les données ingérées, noyb a demandé une "procédure d'urgence" en vertu de l'article 66 du RGPD. Les autorités de protection des données (APD) de neuf pays européens (Autriche, Belgique, France, Grèce, Irlande, Italie, Pays-Bas, Pologne et Espagne) ont reçu une telle demande au nom des personnes concernées. L'article 66 autorise les autorités chargées de la protection des données à émettre des arrêts préliminaires dans des situations telles que celle décrite ci-dessus et permet une décision à l'échelle de l'UE par l'intermédiaire de l'EDPB. La DPC irlandaise et Meta Ireland ont déjà fait l'objet de deux "décisions contraignantes urgentes" de l'EDPB dans des situations similaires (voir la décision contraignante urgente 01/2023 et la décision contraignante urgente 01/2021).

Plusieurs dispositions du RGPD violées. Outre l'absence de base juridique valable, il est très peu probable que Twitter fasse correctement la distinction entre les données des utilisateurs de l'UE/EEE et celles d'autres pays où les personnes ne bénéficient pas de la protection du RGPD. Il en va de même pour les données sensibles au titre de l'article 9 du RGPD (pour lesquelles l'argument de l'"intérêt légitime" n'est pas disponible en vertu de la loi), telles que les données révélant l'appartenance ethnique, les opinions politiques et les croyances religieuses, ainsi que d'autres données pour lesquelles un "intérêt légitime" pourrait théoriquement être revendiqué. Avec l'introduction de sa technologie d'IA, Twitter semble avoir enfreint un certain nombre d'autres dispositions du RGPD, notamment les principes du RGPD, les règles de transparence et les règles opérationnelles. Dans l'ensemble, les plaintes de noyb énumèrent des violations d'au moins les articles 5, paragraphes 1 et 2, 6, paragraphe 1, 9, paragraphe 1, 12, paragraphes 1 et 2, 13, paragraphes 1 et 2, 17, paragraphe 1, point c), 18, paragraphe 1, point d), 19, 21, paragraphe 1, et 25 du RGPD.
Source : Noyb

Et vous ?

Pensez-vous que ces plaintes sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

La plateforme X d'Elon Musk est poursuivie en justice en Irlande pour s'être emparée de données d'utilisateurs de l'UE afin d'entraîner l'IA Grok sans leur consentement

Meta prévoit d'utiliser vos données personnelles pour entraîner ses modèles d'IA sans demander de consentement, mais le groupe de défense NOYB demande aux autorités de l'Europe d'y mettre un terme

Une plainte RGPD a été déposée par NOYB contre X (Twitter) pour avoir illégalement utilisé les opinions politiques et les croyances religieuses de ses utilisateurs à des fins de publicité ciblée

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artae
Nouveau membre du Club https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre confirmé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0 
Avatar de OuftiBoy
Membre confirmé https://www.developpez.com
Le 31/08/2024 à 22:40
Citation Envoyé par OrthodoxWindows Voir le message
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.
Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

Citation Envoyé par OrthodoxWindows Voir le message
Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]
Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

Citation Envoyé par OrthodoxWindows Voir le message
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.
Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

Citation Envoyé par OrthodoxWindows Voir le message
En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )
Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

Quand un humain fait une erreur, il est en responsable.
Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

Citation Envoyé par OrthodoxWindows Voir le message
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.
Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

BàT et Peace & Love.
1  0 
Avatar de OuftiBoy
Membre confirmé https://www.developpez.com
Le 01/09/2024 à 6:58
Citation Envoyé par OrthodoxWindows Voir le message
Le problème est qu'on ne parle pas du même problème.
C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

Citation Envoyé par OrthodoxWindows Voir le message
Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

Citation Envoyé par OrthodoxWindows Voir le message
Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:

  • - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

    - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

    - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

    - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

    - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

    - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

    - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

    - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

Voilà mon avis sur l'IA qui n'engage que moi.

BàT et comme toujours, Peace and Love.
1  0