Le président Donald Trump a signé trois nouveaux décrets visant à renforcer son nouveau plan d'action en matière d'IA. L'un des décrets met en lumière les efforts du président pour influencer le comportement idéologique de l'IA. Il stipule que le gouvernement fédéral a l'interdiction d'acquérir « des modèles d'IA qui sacrifient la véracité et l'exactitude au profit d'agendas idéologiques », ce que l'administration Trump appelle « IA woke ». Cette directive pourrait impacter directement des chatbots populaires tels que Gemini de Google et ChatGPT d'OpenAI, car les républicains accusent ces chatbots d'être woke et de censurer les voix conservatrices.Les entreprises qui souhaitent vendre leur technologie d'IA au gouvernement fédéral américain doivent désormais faire face à un nouvel obstacle réglementaire : prouver que leurs chatbots ne sont pas woke. L'administration Trump a dévoilé un plan d'action ambitieux en matière d'IA qui vise principalement à réduire le poids de la réglementation sur la technologie et à la débarrasser de toute idéologie woke, afin de gagner la compétition face à la Chine.
Ce plan a été suivi de trois nouveaux décrets de Donald Trump. L'un des décrets clarifie davantage les choses pour les entreprises : « les grands modèles de langage (LLM) doivent être des outils neutres et non partisans qui ne manipulent pas les réponses en faveur de dogmes idéologiques tels que la DEI (diversité, équité et inclusion) ». Selon ce décret, le gouvernement fédéral bannira systématiquement tout produit d'IA répondant à cette description.
La directive anti-woke de Donald Trump marque la première fois que le gouvernement fédéral américain tente explicitement d'influencer le comportement idéologique de l'IA. Elle doit encore faire l'objet d'une période d'étude avant d'être intégrée aux règles officielles en matière de marchés publics. Certains fournisseurs de modèles de langage visés par le décret - dont Google (Gemini) et Microsoft (Copilot) - sont pour le moment restés silencieux.
Le plan d'action en matière d'IA a suscité des réactions mitigées. Mais selon les analystes, le décret anti-woke oblige l'industrie à se lancer dans une guerre culturelle, ou à faire de son mieux pour l'éviter discrètement. « Cela aura une influence considérable sur le secteur à l'heure actuelle », a déclaré Alejandra Montoya-Boyer, défenseure des droits civiques et directrice principale du Centre pour les droits civiques et la technologie de Leadership Conference.
Les experts craignent également que cette décision pousse également le secteur technologique à abandonner des années de travail visant à lutter contre les formes omniprésentes de préjugés raciaux et sexistes qui, selon des études et des exemples concrets, sont intégrés dans les systèmes d'IA.
Une IA peut-elle être considérée comme woke ? La réponse des experts
Pour mémoire, le terme anglo-américain woke ("éveillé" en français) fait référence à un état d’éveil. Est qualifiée de woke une personne sensible aux injustices sociales et aux iniquités raciales. Par ailleurs, le terme woke peut également fait référence à une auto-injonction ou à une éthique personnelle qu'on se fixe en se disant, par exemple : « il faut que je reste éveillé vis-à-vis des discriminations envers les minorités ». Le wokisme est le mouvement.
La question de savoir si une IA peut être qualifiée de woke ou non est un sujet brulant dans l'industrie. Le milliardaire Elon Musk, propriétaire de xAI, a accusé ChatGPT d'OpenAI d'être woke et trop politiquement correcte. Il a créé son propre chatbot, Grok, qu'il qualifie de non woke, afin de concurrencer ChatGPT et d'autres modèles de langage. Les conservateurs ont accusé ChatGPT d'être woke, partial et une chambre d'écho pour les valeurs de gauche.
Mais certains experts affirment que qualifier une IA de woke simplifie le problème auquel la technologie est confrontée. « Tout d'abord, il n'existe pas d'IA woke », a déclaré Alejandra Montoya-Boyer. « Il existe des technologies d'IA qui sont discriminatoires et d'autres qui fonctionnent réellement pour tout le monde ».
Selon les experts, il est difficile de modeler les comportements des grands modèles de langage en raison de leur conception et du caractère aléatoire inhérent à leurs productions. Les modèles d'IA générative ont été entraînés à partir de la plupart des contenus disponibles sur Internet, reflétant ainsi les préjugés de toutes les personnes qui ont publié des commentaires, modifié une entrée dans l'encyclopédie Wikipédia ou partagé des images en ligne.
« Cela sera extrêmement difficile à respecter pour les entreprises technologiques », a déclaré Jim Secreto, ancien responsable de l'administration Biden, qui était chef de cabinet adjoint de la...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Que pensez-vous de la neutralité idéologique exigée par Donald Trump en matière d'IA ?