IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les législateurs de l'UE ratifient l'accord politique sur les règles relatives à l'IA
Un fonctionnaire de l'UE a été bombardé de SMS et de courriels provenant de lobbyistes et de groupes industriels

Le , par Stéphane le calme

5PARTAGES

6  0 
Deux groupes clés de législateurs au Parlement européen ont ratifié mardi un accord provisoire sur des règles historiques en matière d'intelligence artificielle, avant un vote de l'assemblée législative en avril qui ouvrira la voie à la première législation au monde sur cette technologie. Appelées "AI Act", les nouvelles règles visent à établir des garde-fous pour une technologie utilisée dans un large éventail d'industries, allant de la banque à l'automobile en passant par les produits électroniques et les compagnies aériennes, ainsi qu'à des fins de sécurité et de police.

Les règles régiront également les modèles de fondation ou l'IA générative, comme celle construite par OpenAI, soutenue par Microsoft, qui sont des systèmes d'IA formés sur de grands ensembles de données, avec la capacité d'apprendre à partir de nouvelles données pour effectuer diverses tâches.


Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de bouleverser les efforts de l’Union européenne visant à approuver les premières règles globales en matière d’intelligence artificielle au monde.

Le projet de loi sur l’intelligence artificielle (ou AI Act en anglais) de l'UE a été salué comme un règlement pionnier. Mais comme le temps presse, il n’est pas certain que les pays membres parviendront à parvenir à un accord dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.

Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.

Ces préoccupations ont poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties dans la course pour réglementer cette technologie en développement rapide, même s’ils sont encore derrière l’Europe dans la matière.

L’AI Act vise à répondre aux préoccupations croissantes concernant l’IA, tout en favorisant sa croissance et son développement responsables au sein du bloc européen. Au cœur de la législation se trouvent quatre principes clés : la transparence, la surveillance humaine, la sécurité et le respect des droits fondamentaux.

« L'Europe s'est positionnée comme un pionnier, comprenant l'importance de son rôle de normalisateur mondial », a déclaré dans un communiqué Thierry Breton, le commissaire européen qui a aidé à négocier l'accord.

Pourtant, même si la loi a été saluée comme une avancée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de cette politique ne devraient pas entrer en vigueur avant 12 à 24 mois, un délai considérable pour le développement de l'IA. Et jusqu'à la dernière minute des négociations, les décideurs politiques et les pays se sont battus sur le texte et sur la manière de trouver un équilibre entre la promotion de l'innovation et la nécessité de se prémunir contre d'éventuels dommages.

L'Ue parvient à un accord provisoire sur des règles régissant l'utilisation de l'intelligence artificielle

Les commissions du Parlement européen chargées des libertés civiles (LIBE) et du marché intérieur (IMCO) ont approuvé à une écrasante majorité le projet de législation établissant un cadre fondé sur les risques pour réglementer les applications de l'intelligence artificielle. Les commissions ont voté par 71 voix contre 8 (avec 7 abstentions) en faveur du compromis négocié avec les États membres de l'UE à la fin de l'année dernière lors de longs pourparlers en trilogue.


La loi européenne sur l'IA, proposée à l'origine par la Commission en avril 2021, établit des règles pour les développeurs d'IA en fonction de la puissance de leurs modèles et/ou de l'objectif pour lequel ils ont l'intention d'appliquer l'IA.

Elle comprend une liste d'utilisations interdites de l'IA, notamment :
  • les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
  • l'extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
  • la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
  • la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
  • les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
  • l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.

Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.

Le plan prévoit également la mise en place de bacs à sable réglementaires au niveau national pour permettre aux développeurs de mettre au point, de former et de tester des applications à risque dans un environnement « réel » supervisé.

Un responsable européen bombardé de messages par les lobbyistes

Le déluge de règles et la possibilité d'en ajouter d'autres ont ouvert un nouveau front de bataille pour les entreprises qui développent et utilisent l'intelligence artificielle.

Des centaines de milliards de dollars en termes de chiffre d'affaires et de valeur marchande des entreprises sont en jeu. Il en va de même pour les intérêts nationaux. Les pays mettent en balance la protection de leurs citoyens contre des dangers tels que les violations de la vie privée, les armes biologiques et les cyberattaques à grande échelle, et leur désir de devenir des leaders dans le domaine de la technologie afin de stimuler leurs économies et leurs armées dans la course mondiale aux armements, qui revêt une importance capitale.

Pour les régulateurs américains et européens, l'énigme est la suivante : une réglementation trop légère pourrait créer des dangers inattendus, tandis qu'une réglementation trop lourde pourrait étouffer l'innovation - l'argument central avancé par les investisseurs et les dirigeants du secteur technologique pour justifier la relative liberté d'action des entreprises.

Dragos Tudorache, le principal négociateur de l'UE, affirme avoir été bombardé de SMS et d'e-mails de lobbyistes et de groupes industriels reprenant les arguments des entreprises technologiques, « demandant des centaines, des centaines et des centaines de réunions ». Cela ne surprend pas les experts en IA. « Ces entreprises ont plus de pouvoir que jamais », déclare Luciano Floridi, directeur fondateur du nouveau centre d'éthique numérique de l'université de Yale. « Elles sont plus riches que quelques centaines de pays dans le monde ».

Le spectre qui planait sur les négociations de Bruxelles était de savoir si les modèles fondamentaux d'IA des entreprises - ceux qui, comme le chatbot d'IA ChatGPT, peuvent être utilisés pour une variété presque infinie d'objectifs - pouvaient causer de graves dommages entre les mains d'acteurs malveillants. Cette crainte s'est considérablement accrue avec la popularité explosive de ChatGPT, lancé par OpenAI en 2022. La France et l'Allemagne se sont battues pour protéger leurs propres champions de l'IA, en particulier la startup parisienne Mistral AI (fondée par d'anciens scientifiques de Meta et de Google) et Aleph Alpha en Allemagne, qui ont toutes deux levé des centaines de millions de dollars en capital-risque.

De plus, l'IA évoluant à une vitesse fulgurante, les réglementations actuellement débattues dans le monde entier pourraient bientôt être obsolètes. « Vous essayez de réglementer une cible mouvante que très peu de gens sont techniquement compétents pour comprendre, et les agences gouvernementales ont du mal à attirer les bonnes compétences pour réglementer efficacement », a déclaré Bill Whyman, président de Tech Dynamics, une société de conseil aux entreprises technologiques basée à Washington, D.C. « Vous ne savez pas ce que vous allez obtenir en fin de compte, lorsque vous ouvrirez la boîte de Pandore de la réglementation ».

Conclusion

La proposition de la Commission relative à un règlement sur l'IA n'a pas fait grand bruit lorsque l'UE l'a présentée il y a trois ans. Mais avec l'essor de l'IA générative au cours de l'année écoulée, le projet s'est retrouvé sous les feux des projecteurs et a creusé des fossés entre les législateurs de l'Union européenne. Les députés européens ont proposé d'amender la proposition pour s'assurer qu'elle s'applique aux puissantes IA à usage général, tandis qu'une poignée d'États membres, menés par la France, ont poussé dans la direction opposée, cherchant à obtenir une exception réglementaire pour les IA avancées dans l'espoir d'encourager les champions nationaux.

Le trilogue marathon de décembre a débouché sur un texte de compromis qui comprenait encore certaines dispositions relatives aux IA à usage général, ce qui a suscité l'opposition persistante de certains gouvernements. Le mois dernier encore, ces divisions semblaient pouvoir faire dérailler l'adoption du projet de loi. Mais avec un vote critique des États membres sur le texte de compromis passé au début du mois, l'Union semble presque certaine d'adopter son règlement phare sur l'IA d'ici quelques mois.

Cela dit, le projet de loi doit encore franchir quelques étapes avant d'être adopté : dans les semaines à venir, les députés européens seront invités à voter en séance plénière pour l'adopter formellement. Il y aura ensuite un vote final du Conseil.

Toutefois, ces dernières étapes semblent moins susceptibles d'entraîner des bouleversements entre les colégislateurs de l'UE. En effet, les élections législatives approchent et le mandat du collège actuel touche à sa fin, ce qui signifie que le temps législatif et la marge de manœuvre en matière de réputation sont limités.

Source : communiqué de presse du Parlement européen

Et vous ?

Quels sont les avantages et les inconvénients de la régulation de l’IA pour l’Europe et pour le monde ?
Comment concilier l’innovation et l’éthique dans le domaine de l’IA ?
Quels sont les risques et les opportunités de l’IA pour la société, l’économie, la sécurité et l’environnement ?
Quel rôle devraient jouer les citoyens, les entreprises, les organisations et les institutions dans la gouvernance de l’IA ?
Quels sont les principes et les valeurs qui devraient guider le développement et l’utilisation de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 15:55
Citation Envoyé par Anselme45 Voir le message
Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/06/2024 à 22:27
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/06/2024 à 11:19
Citation Envoyé par Anselme45 Voir le message
La majorité des news traitent maintenant de l'IA...
C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

Citation Envoyé par Mathis Lucas Voir le message
Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

On pourrait presque se dire que les politiciens sont tous pourris.
4  0 
Avatar de
https://www.developpez.com
Le 27/10/2024 à 9:59
L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
4  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/06/2024 à 0:31
Citation Envoyé par kain_tn Voir le message
On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).
2  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 04/06/2024 à 10:56
Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
Les humains
2  0