Les règles régiront également les modèles de fondation ou l'IA générative, comme celle construite par OpenAI, soutenue par Microsoft, qui sont des systèmes d'IA formés sur de grands ensembles de données, avec la capacité d'apprendre à partir de nouvelles données pour effectuer diverses tâches.
Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de bouleverser les efforts de l’Union européenne visant à approuver les premières règles globales en matière d’intelligence artificielle au monde.
Le projet de loi sur l’intelligence artificielle (ou AI Act en anglais) de l'UE a été salué comme un règlement pionnier. Mais comme le temps presse, il n’est pas certain que les pays membres parviendront à parvenir à un accord dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.
Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.
Ces préoccupations ont poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties dans la course pour réglementer cette technologie en développement rapide, même s’ils sont encore derrière l’Europe dans la matière.
L’AI Act vise à répondre aux préoccupations croissantes concernant l’IA, tout en favorisant sa croissance et son développement responsables au sein du bloc européen. Au cœur de la législation se trouvent quatre principes clés : la transparence, la surveillance humaine, la sécurité et le respect des droits fondamentaux.
« L'Europe s'est positionnée comme un pionnier, comprenant l'importance de son rôle de normalisateur mondial », a déclaré dans un communiqué Thierry Breton, le commissaire européen qui a aidé à négocier l'accord.
Pourtant, même si la loi a été saluée comme une avancée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de cette politique ne devraient pas entrer en vigueur avant 12 à 24 mois, un délai considérable pour le développement de l'IA. Et jusqu'à la dernière minute des négociations, les décideurs politiques et les pays se sont battus sur le texte et sur la manière de trouver un équilibre entre la promotion de l'innovation et la nécessité de se prémunir contre d'éventuels dommages.
L'Ue parvient à un accord provisoire sur des règles régissant l'utilisation de l'intelligence artificielle📝 Signed!
— Belgian Presidency of the Council of the EU 2024 (@EU2024BE) February 2, 2024
Coreper I Ambassadors confirmed the final compromise text found on the proposal on harmonised rules on artificial intelligence (#AIAct).
The AI Act is a milestone, marking the 1st rules for AI in the 🌍, aiming to make it safe & in respect of 🇪🇺 fundamental rights. pic.twitter.com/QUe2Sr89A5
Les commissions du Parlement européen chargées des libertés civiles (LIBE) et du marché intérieur (IMCO) ont approuvé à une écrasante majorité le projet de législation établissant un cadre fondé sur les risques pour réglementer les applications de l'intelligence artificielle. Les commissions ont voté par 71 voix contre 8 (avec 7 abstentions) en faveur du compromis négocié avec les États membres de l'UE à la fin de l'année dernière lors de longs pourparlers en trilogue.
La loi européenne sur l'IA, proposée à l'origine par la Commission en avril 2021, établit des règles pour les développeurs d'IA en fonction de la puissance de leurs modèles et/ou de l'objectif pour lequel ils ont l'intention d'appliquer l'IA.
Elle comprend une liste d'utilisations interdites de l'IA, notamment :
- les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
- l'extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
- la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
- la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
- les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
- l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).
Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.
Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.
Le plan prévoit également la mise en place de bacs à sable réglementaires au niveau national pour permettre aux développeurs de mettre au point, de former et de tester des applications à risque dans un environnement « réel » supervisé.
Un responsable européen bombardé de messages par les lobbyistes‼️ AI Act takes a step forward:
— LIBE Committee Press (@EP_Justice) February 13, 2024
MEPs in @EP_Justice & @EP_SingleMarket have endorsed the provisional agreement on an Artificial Intelligence Act that ensures safety and complies with fundamental rights 👇https://t.co/EbXtLBfIoY@brandobenifei @IoanDragosT pic.twitter.com/J3NXRhxd9p
Le déluge de règles et la possibilité d'en ajouter d'autres ont ouvert un nouveau front de bataille pour les entreprises qui développent et utilisent l'intelligence artificielle.
Des centaines de milliards de dollars en termes de chiffre d'affaires et de valeur marchande des entreprises sont en jeu. Il en va de même pour les intérêts nationaux. Les pays mettent en balance la protection de leurs citoyens contre des dangers tels que les violations de la vie privée, les armes biologiques et les cyberattaques à grande échelle, et leur désir de devenir des leaders dans le domaine de la technologie afin de stimuler leurs économies et leurs armées dans la course mondiale aux armements, qui revêt une importance capitale.
Pour les régulateurs américains et européens, l'énigme est la suivante : une réglementation trop légère pourrait créer des dangers inattendus, tandis qu'une réglementation trop lourde pourrait étouffer l'innovation - l'argument central avancé par les investisseurs et les dirigeants du secteur technologique pour justifier la relative liberté d'action des entreprises.
Dragos Tudorache, le principal négociateur de l'UE, affirme avoir été bombardé de SMS et d'e-mails de lobbyistes et de groupes industriels reprenant les arguments des entreprises technologiques, « demandant des centaines, des centaines et des centaines de réunions ». Cela ne surprend pas les experts en IA. « Ces entreprises ont plus de pouvoir que jamais », déclare Luciano Floridi, directeur fondateur du nouveau centre d'éthique numérique de l'université de Yale. « Elles sont plus riches que quelques centaines de pays dans le monde ».
Le spectre qui planait sur les négociations de Bruxelles était de savoir si les modèles fondamentaux d'IA des entreprises - ceux qui, comme le chatbot d'IA ChatGPT, peuvent être utilisés pour une variété presque infinie d'objectifs - pouvaient causer de graves dommages entre les mains d'acteurs malveillants. Cette crainte s'est considérablement accrue avec la popularité explosive de ChatGPT, lancé par OpenAI en 2022. La France et l'Allemagne se sont battues pour protéger leurs propres champions de l'IA, en particulier la startup parisienne Mistral AI (fondée par d'anciens scientifiques de Meta et de Google) et Aleph Alpha en Allemagne, qui ont toutes deux levé des centaines de millions de dollars en capital-risque.
De plus, l'IA évoluant à une vitesse fulgurante, les réglementations actuellement débattues dans le monde entier pourraient bientôt être obsolètes. « Vous essayez de réglementer une cible mouvante que très peu de gens sont techniquement compétents pour comprendre, et les agences gouvernementales ont du mal à attirer les bonnes compétences pour réglementer efficacement », a déclaré Bill Whyman, président de Tech Dynamics, une société de conseil aux entreprises technologiques basée à Washington, D.C. « Vous ne savez pas ce que vous allez obtenir en fin de compte, lorsque vous ouvrirez la boîte de Pandore de la réglementation ».
Conclusion
La proposition de la Commission relative à un règlement sur l'IA n'a pas fait grand bruit lorsque l'UE l'a présentée il y a trois ans. Mais avec l'essor de l'IA générative au cours de l'année écoulée, le projet s'est retrouvé sous les feux des projecteurs et a creusé des fossés entre les législateurs de l'Union européenne. Les députés européens ont proposé d'amender la proposition pour s'assurer qu'elle s'applique aux puissantes IA à usage général, tandis qu'une poignée d'États membres, menés par la France, ont poussé dans la direction opposée, cherchant à obtenir une exception réglementaire pour les IA avancées dans l'espoir d'encourager les champions nationaux.
Le trilogue marathon de décembre a débouché sur un texte de compromis qui comprenait encore certaines dispositions relatives aux IA à usage général, ce qui a suscité l'opposition persistante de certains gouvernements. Le mois dernier encore, ces divisions semblaient pouvoir faire dérailler l'adoption du projet de loi. Mais avec un vote critique des États membres sur le texte de compromis passé au début du mois, l'Union semble presque certaine d'adopter son règlement phare sur l'IA d'ici quelques mois.
Cela dit, le projet de loi doit encore franchir quelques étapes avant d'être adopté : dans les semaines à venir, les députés européens seront invités à voter en séance plénière pour l'adopter formellement. Il y aura ensuite un vote final du Conseil.
Toutefois, ces dernières étapes semblent moins susceptibles d'entraîner des bouleversements entre les colégislateurs de l'UE. En effet, les élections législatives approchent et le mandat du collège actuel touche à sa fin, ce qui signifie que le temps législatif et la marge de manœuvre en matière de réputation sont limités.
Source : communiqué de presse du Parlement européen
Et vous ?
Quels sont les avantages et les inconvénients de la régulation de l’IA pour l’Europe et pour le monde ?
Comment concilier l’innovation et l’éthique dans le domaine de l’IA ?
Quels sont les risques et les opportunités de l’IA pour la société, l’économie, la sécurité et l’environnement ?
Quel rôle devraient jouer les citoyens, les entreprises, les organisations et les institutions dans la gouvernance de l’IA ?
Quels sont les principes et les valeurs qui devraient guider le développement et l’utilisation de l’IA ?