IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises spécialisées dans l'intelligence artificielle (IA) devront commencer à communiquer leurs tests de sécurité au gouvernement américain

Le , par Jade Emy

11PARTAGES

4  0 
L'administration Biden va commencer à mettre en œuvre une nouvelle obligation pour les développeurs des principaux systèmes d'intelligence artificielle de divulguer les résultats de leurs tests de sécurité au gouvernement.

Le Conseil de l'intelligence artificielle de la Maison-Blanche doit se réunir lundi pour faire le point sur les progrès réalisés dans le cadre du décret que le président Joe Biden a signé il y a trois mois pour gérer cette technologie en évolution rapide. L'un des principaux objectifs à atteindre dans les 90 jours était l'obligation, en vertu de la loi sur la production de défense, pour les entreprises spécialisées dans l'IA de partager des informations essentielles avec le ministère du commerce, notamment les tests de sécurité.

Ben Buchanan, conseiller spécial de la Maison-Blanche pour l'IA, a déclaré dans une interview que le gouvernement voulait "s'assurer que les systèmes d'IA sont sûrs avant de les rendre accessibles au public - le président a été très clair sur le fait que les entreprises doivent satisfaire à cette exigence".

Les éditeurs de logiciels se sont engagés à respecter un ensemble de catégories pour les tests de sécurité, mais les entreprises ne sont pas encore tenues de se conformer à une norme commune pour les tests. L'Institut national des normes et de la technologie du gouvernement développera un cadre uniforme pour évaluer la sécurité, dans le cadre de l'ordonnance signée par M. Biden en octobre.


L'IA est devenue l'une des principales préoccupations du gouvernement fédéral en matière d'économie et de sécurité nationale, compte tenu des investissements et des incertitudes engendrés par le lancement de nouveaux outils d'IA tels que ChatGPT, qui peuvent générer du texte, des images et des sons. L'administration Biden envisage également une législation au niveau du Congrès et travaille avec d'autres pays et l'Union européenne sur les règles de gestion de la technologie.

Le ministère du commerce a élaboré un projet de règlement concernant les sociétés américaines d'informatique en nuage qui fournissent des serveurs à des développeurs d'IA étrangers. Neuf agences fédérales, dont les départements de la défense, des transports, du trésor et de la santé et des services sociaux, ont réalisé des évaluations des risques concernant l'utilisation de l'IA dans les infrastructures nationales essentielles, telles que le réseau électrique.

Le gouvernement a également intensifié le recrutement d'experts en IA et de scientifiques des données dans les agences fédérales. "Nous savons que l'IA a des effets et un potentiel transformateurs", a déclaré M. Buchanan. "Nous n'essayons pas de renverser la charrue, mais nous essayons de nous assurer que les régulateurs sont prêts à gérer cette technologie."

Source : L'administration Biden

Et vous ?

Pensez-vous que ces mesures sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Joe Biden signe un décret visant à superviser et à investir dans l'IA. Ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

Une erreur dans cette actualité ? Signalez-nous-la !