
L'agence italienne de protection des données a déclaré le vendredi 20 décembre qu'elle avait infligé une amende de 15 millions d'euros à l'éditeur de ChatGPT, OpenAI, après avoir clos une enquête sur l'utilisation de données personnelles par l'application d'intelligence artificielle (IA) générative.
Ce dernier rebondissement fait suite à une enquête de l'autorité italienne de protection des données, qui a conclu au début de l'année 2024 que l'application d'IA ChatGPT d'OpenAI avait enfreint les réglementations européennes en matière de protection des données (RGPD).
L'amende intervient après que l'agence a constaté qu'OpenAI a traité les données personnelles des utilisateurs pour « former ChatGPT sans disposer d'une base juridique adéquate et a violé le principe de transparence et les obligations d'information envers les utilisateurs qui en découlent ».
OpenAI a déclaré que la décision était « disproportionnée » et que la société ferait appel.
L'enquête, qui a débuté en 2023, a également conclu que l'entreprise américaine ne disposait pas d'un système de vérification de l'âge adéquat pour empêcher les enfants de moins de 13 ans d'être exposés à des contenus inappropriés générés par l'IA, a déclaré l'autorité.
L'autorité de surveillance italienne a également ordonné à OpenAI de lancer une campagne de six mois sur les médias italiens afin de sensibiliser le public au fonctionnement de ChatGPT, notamment en ce qui concerne la collecte de données sur les utilisateurs et les non-utilisateurs en vue de former des algorithmes.
L'autorité italienne, connue sous le nom de Garante, est l'un des régulateurs les plus proactifs de l'Union européenne en ce qui concerne l'évaluation de la conformité des plateformes d'IA avec le régime de confidentialité des données de l'Union.
L'année dernière, elle a brièvement interdit l'utilisation de ChatGPT en Italie en raison de violations présumées des règles de l'UE en matière de protection de la vie privée.
Le service a été réactivé après qu'OpenAI, soutenu par Microsoft, a abordé des questions concernant, entre autres, le droit des utilisateurs à refuser de consentir à l'utilisation de données personnelles pour entraîner les algorithmes.
« Ils ont depuis reconnu notre approche de pointe en matière de protection de la vie privée dans le domaine de l'IA, mais cette amende représente près de vingt fois le chiffre d'affaires que nous avons réalisé en Italie au cours de la période concernée », a déclaré OpenAI, ajoutant que l'approche de Garante « sape les ambitions de l'Italie dans le domaine de l'IA ».
L'autorité de régulation a déclaré que le montant de l'amende de 15 millions d'euros avait été calculé en tenant compte de la « position coopérative » d'OpenAI, ce qui laisse entendre que l'amende aurait pu être encore plus élevée.
En vertu du règlement général sur la protection des données (RGPD) de l'UE introduit en 2018, toute entreprise reconnue coupable d'avoir enfreint les règles s'expose à des amendes pouvant aller jusqu'à 20 millions d'euros ou 4 % de son chiffre d'affaires mondial.
Cependant, OpenAI a assuré ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur. La déclaration a été faite devant une sous-commission de la Chambre des Lords au Royaume-Uni, où OpenAI a plaidé pour le droit d’utiliser ces matériaux gratuitement, estimant que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement ».
Source : Agence italienne de protection des données
Et vous ?


Voir aussi :



Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.