IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA
Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta

Le , par Anthony

11PARTAGES

6  0 
Le gouverneur de Californie, Gavin Newsom, a opposé le dimanche 29 septembre 2024 son veto à un projet de loi très contesté sur la sécurité de l'intelligence artificielle (IA), après que l'industrie technologique eut soulevé des objections, estimant que ce projet de loi pourrait pousser les entreprises d'intelligence artificielle à quitter l'État et entraver l'innovation.

Pour rappel, le gouverneur de Californie a précédemment signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi parmi les neuf concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à réglementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.

Gavin Newsom a déclaré qu'il avait demandé à d'éminents experts en IA générative d'aider la Californie à « élaborer des garde-fous réalisables » qui se concentrent « sur le développement d'une analyse empirique et scientifique de la trajectoire ». Il a également ordonné aux agences de l'État d'élargir leur évaluation des risques d'événements catastrophiques potentiels liés à l'utilisation de l'IA.

L'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité de l'enthousiasme, mais aussi des craintes qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections, qu'elle ne prenne le dessus sur les humains et qu'elle n'ait des effets catastrophiques.


L'auteur du projet de loi, le sénateur démocrate Scott Wiener, a déclaré qu'une législation était nécessaire pour protéger le public avant que les progrès de l'IA ne deviennent difficiles à gérer ou incontrôlables. L'industrie de l'IA se développe rapidement en Californie et certains dirigeants s'interrogent sur l'avenir de ces entreprises dans l'État si le projet de loi est adopté.

Scott Wiener a déclaré le dimanche 29 septembre que le veto rendait la Californie moins sûre et signifiait que « les entreprises visant à créer une technologie extrêmement puissante ne sont soumises à aucune restriction contraignante ». Il a ajouté que « les engagements volontaires de l'industrie ne sont pas applicables et sont rarement bénéfiques pour le public ».

« Nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », a déclaré Gavin Newsom, tout en ajoutant qu'il n'était pas d'accord avec le fait que « nous devions nous contenter d'une solution qui n'est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l'IA ».

Gavin Newsom a déclaré qu'il travaillerait avec le corps législatif sur une législation relative à l'IA lors de la prochaine session. Cette déclaration intervient alors que la législation du Congrès américain visant à mettre en place des garde-fous est au point mort et que l'administration Biden avance des propositions de contrôle réglementaire de l'IA.

Gavin Newsom a déclaré qu'« une approche californienne uniquement pourrait bien être justifiée - en particulier en l'absence d'une action fédérale du Congrès ».

La Chamber of Progress, une coalition de l'industrie technologique, a salué le veto de Gavin Newsom en déclarant que « l'économie technologique californienne a toujours prospéré grâce à la concurrence et à l'ouverture ».

La mesure aurait notamment imposé des tests de sécurité pour bon nombre des modèles d'IA les plus avancés, dont le développement coûte plus de 100 millions de dollars ou qui requièrent une puissance de calcul définie. Les développeurs de logiciels d'IA opérant dans l'État auraient également dû présenter des méthodes permettant de désactiver les modèles d'IA, ce qui aurait constitué un véritable « kill switch » (interrupteur d'arrêt).

Le projet de loi prévoit la création d'une entité publique chargée de superviser le développement des « modèles frontières », qui dépassent les capacités des modèles existants les plus avancés.


Le projet de loi s'est heurté à une forte opposition de la part d'un large éventail de groupes. Google (Alphabet), OpenAI (soutenu par Microsoft) et Meta Platforms, qui développent tous des modèles d'IA générative, ont exprimé leurs inquiétudes quant à la proposition.

Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de la proposition, on trouve le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI. Anthropic, soutenue par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, tout en ajoutant que certains aspects semblaient encore préoccupants ou ambigus.

Gavin Newsom a signé séparément une loi obligeant l'État à évaluer les menaces potentielles que l'IA générative fait peser sur les infrastructures essentielles de la Californie.

L'État analyse les risques liés aux infrastructures énergétiques et a déjà réuni les fournisseurs du secteur de l'électricité. Il entreprendra la même évaluation des risques avec les fournisseurs d'infrastructures hydrauliques au cours de l'année à venir et, plus tard, avec le secteur des communications, a déclaré M. Gavin Newsom.

La déclaration du gouverneur Gavin Newsom à l'intention des membres du Sénat de l'Etat de Californie est présentée ci-dessous :


Aux membres du Sénat de l'État de Californie :
Je renvoie le projet de loi 1047 du Sénat sans ma signature.

Ce projet de loi obligerait les développeurs de grands modèles d'intelligence artificielle (IA), et ceux qui fournissent la puissance de calcul nécessaire à l'entraînement de ces modèles, à mettre en place certaines garanties et politiques afin de prévenir les dommages catastrophiques. Le projet de loi prévoit également la création d'un conseil des modèles frontières (Board of Frontier Models), une entité publique, chargée de superviser le développement de ces modèles.

La Californie abrite 32 des 50 plus grandes entreprises mondiales d'lA, pionnières de l'une des avancées technologiques les plus importantes de l'histoire moderne. Nous sommes leaders dans ce domaine grâce à nos institutions de recherche et d'éducation, à notre main-d'œuvre diversifiée et motivée, et à notre culture de la liberté intellectuelle. En tant que gardiens et innovateurs de l'avenir, je prends au sérieux la responsabilité de réglementer cette industrie.

Cette année, la législature m'a transmis plusieurs propositions réfléchies visant à réglementer les entreprises d'lA en réponse aux risques actuels qui évoluent rapidement, notamment les menaces pour notre processus démocratique, la propagation de la désinformation et des « deepfakes », les risques pour la vie privée en ligne, les menaces pour les infrastructures critiques et les perturbations dans la main-d'œuvre. Ces projets de loi et les actions de mon administration sont guidés par les principes de responsabilité, d'équité et de transparence des systèmes d'IA et du déploiement de la technologie d'IA en Californie.

Le SB 1047 a amplifié la conversation sur les menaces qui pourraient émerger du déploiement de l'IA. Le débat porte essentiellement sur la question de savoir si le seuil de réglementation doit être basé sur le coût et le nombre de calculs nécessaires à l'élaboration d'un modèle d'IA, ou si nous devons évaluer les risques réels du système indépendamment de ces facteurs. Cette discussion globale a lieu alors que les capacités de l'lA continuent de se développer à un rythme impressionnant. Dans le même temps, les stratégies et les solutions pour faire face au risque de dommages catastrophiques évoluent rapidement.

En se concentrant uniquement sur les modèles les plus coûteux et les plus importants, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide. Des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le projet de loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public.

La capacité d'adaptation est essentielle dans notre course à la réglementation d'une technologie qui n'en est encore qu'à ses balbutiements. Cela nécessitera un équilibre délicat. Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu'un système d'IA est déployé dans des environnements à haut risque, qu'il implique des prises de décision critiques ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques, pour autant qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par cette technologie.

Soyons clairs - je suis d'accord avec l'auteur - nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public. La Californie n'abandonnera pas ses responsabilités. Des protocoles de sécurité doivent être adoptés. Des garde-fous proactifs doivent être mis en place, et les conséquences sévères pour les mauvais acteurs doivent être claires et applicables. Je ne suis toutefois pas d'accord avec le fait que, pour assurer la sécurité du public, nous devons nous contenter d'une solution qui ne repose pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l'lA. En fin de compte, tout cadre visant à réglementer efficacement l'IA doit suivre l'évolution de la technologie elle-même.

À ceux qui disent qu'il n'y a pas de problème à résoudre ou que la Californie n'a pas de rôle à jouer dans la réglementation des implications potentielles de cette technologie sur la sécurité nationale, je réponds par la négative. Une approche exclusivement californienne peut être justifiée - en particulier en l'absence d'action fédérale de la part du Congrès - mais elle doit être fondée sur des preuves empiriques et scientifiques. Le U.S. Al Safety Institute, qui dépend du National Institute of Science and Technology, élabore actuellement des orientations sur les risques pour la sécurité nationale, fondées sur des approches factuelles, afin de se prémunir contre les risques démontrables pour la sécurité publique. En vertu d'un décret que j'ai publié en septembre 2023, les agences de mon administration effectuent des analyses de risques sur les menaces et les vulnérabilités potentielles des infrastructures essentielles de la Californie utilisant l'IA. Ce ne sont là que quelques exemples des nombreuses initiatives en cours, menées par des experts, pour informer les décideurs politiques sur les pratiques de gestion des risques liés à l'IA qui sont fondées sur la science et les faits. Ces efforts ont conduit à l'introduction de plus d'une douzaine de projets de loi réglementant les risques spécifiques et connus posés par l'IA, que j'ai signés au cours des 30 derniers jours.

Je m'engage à travailler avec la législature, les partenaires fédéraux, les experts en technologie, les éthiciens et les universitaires pour trouver la voie à suivre, y compris la législation et la réglementation. Compte tenu des enjeux - protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public - nous devons faire les choses correctement.

Pour ces raisons, je ne peux pas signer ce projet de loi.
Source : Communiqué du gouverneur Gavin Newsom

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de cette décision du gouverneur Gavin Newsom, trouvez-vous qu'elle est crédible ou pertinente ?

Voir aussi :

Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation

Une nouvelle loi californienne oblige les magasins numériques à préciser que vous n'achetez pas le contenu, mais juste une licence, afin de lutter contre la "disparition" des achats de contenus numériques

Le gouverneur de Californie signe une loi visant à protéger les enfants de l'addiction aux médias sociaux, et à interdire aux médias sociaux de fournir des flux addictifs aux enfants sans l'accord des parents

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 08/10/2024 à 12:07
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
1  0