IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises spécialisées dans l'intelligence artificielle (IA) devront commencer à communiquer leurs tests de sécurité au gouvernement américain

Le , par Jade Emy

14PARTAGES

4  0 
L'administration Biden va commencer à mettre en œuvre une nouvelle obligation pour les développeurs des principaux systèmes d'intelligence artificielle de divulguer les résultats de leurs tests de sécurité au gouvernement.

Le Conseil de l'intelligence artificielle de la Maison-Blanche doit se réunir lundi pour faire le point sur les progrès réalisés dans le cadre du décret que le président Joe Biden a signé il y a trois mois pour gérer cette technologie en évolution rapide. L'un des principaux objectifs à atteindre dans les 90 jours était l'obligation, en vertu de la loi sur la production de défense, pour les entreprises spécialisées dans l'IA de partager des informations essentielles avec le ministère du commerce, notamment les tests de sécurité.

Ben Buchanan, conseiller spécial de la Maison-Blanche pour l'IA, a déclaré dans une interview que le gouvernement voulait "s'assurer que les systèmes d'IA sont sûrs avant de les rendre accessibles au public - le président a été très clair sur le fait que les entreprises doivent satisfaire à cette exigence".

Les éditeurs de logiciels se sont engagés à respecter un ensemble de catégories pour les tests de sécurité, mais les entreprises ne sont pas encore tenues de se conformer à une norme commune pour les tests. L'Institut national des normes et de la technologie du gouvernement développera un cadre uniforme pour évaluer la sécurité, dans le cadre de l'ordonnance signée par M. Biden en octobre.


L'IA est devenue l'une des principales préoccupations du gouvernement fédéral en matière d'économie et de sécurité nationale, compte tenu des investissements et des incertitudes engendrés par le lancement de nouveaux outils d'IA tels que ChatGPT, qui peuvent générer du texte, des images et des sons. L'administration Biden envisage également une législation au niveau du Congrès et travaille avec d'autres pays et l'Union européenne sur les règles de gestion de la technologie.

Le ministère du commerce a élaboré un projet de règlement concernant les sociétés américaines d'informatique en nuage qui fournissent des serveurs à des développeurs d'IA étrangers. Neuf agences fédérales, dont les départements de la défense, des transports, du trésor et de la santé et des services sociaux, ont réalisé des évaluations des risques concernant l'utilisation de l'IA dans les infrastructures nationales essentielles, telles que le réseau électrique.

Le gouvernement a également intensifié le recrutement d'experts en IA et de scientifiques des données dans les agences fédérales. "Nous savons que l'IA a des effets et un potentiel transformateurs", a déclaré M. Buchanan. "Nous n'essayons pas de renverser la charrue, mais nous essayons de nous assurer que les régulateurs sont prêts à gérer cette technologie."

Source : L'administration Biden

Et vous ?

Pensez-vous que ces mesures sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Joe Biden signe un décret visant à superviser et à investir dans l'IA. Ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

Vers une AIEA (Agence internationale de l'énergie atomique) de l'intelligence artificielle ? L'ONU veut créer une agence mondiale pour réguler l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 26/11/2024 à 10:04
Cela reste une approche commerciale de type "business as usual", qu'en est-il de tous ceux qui font du training sans le savoir ? Et pour la sérendipité qui peut en découler, comment fait-on ?
Une énième façon de normaliser, certifier, etc. toujours à l'avantage de ceux qui mènent l'affaire.
Pour info (parce qu'il s'agit aussi d'aller au-delà d'une simple critique apparaissant comme une dénonciation) :
https://usbeketrica.com/fr/article/i...rais-problemes
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 26/11/2024 à 11:31
Citation Envoyé par Fluxgraveon Voir le message
Pour info (parce qu'il s'agit aussi d'aller au-delà d'une simple critique apparaissant comme une dénonciation) :
https://usbeketrica.com/fr/article/i...rais-problemes
Article très intéressant, merci !

si vous voulez un monde sans argent fondé sur le partage mais qu’en même temps vous croyez fortement dans l’idée de devenir super riche grâce à une carrière d’entrepreneur dans un système capitaliste, vous vous retrouvez face à une contradiction. Et pour résoudre cette contradiction, votre seule solution, c’est de mentir. C’est de donner aux gens l’expérience d’un monde où tout est gratuit, mais de faire en sorte qu’à chaque fois qu’une personne fait quelque chose en ligne, cela soit payé par une autre qui espère pouvoir la manipuler… et de gérer ce qui devient dès lors une entreprise de modification des comportements.
A mettre aussi en relief avec l'article sur les travailleurs Africain payés 2$ au lieu de 12 pour entrainer l'IA et étiqueter les données...

Ce monde est pourri jusqu'à l'os
0  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 26/11/2024 à 13:56
Ce monde est pourri jusqu'à l'os
Ce n'est qu'un "monde", une réalité parmi d'autres ...
0  0