WASHINGTON — L’administration Trump a opéré un revirement spectaculaire cette semaine en signant des accords avec Google DeepMind, Microsoft et xAI. Ces partenariats prévoient la réalisation de tests de sécurité gouvernementaux sur leurs modèles d’IA les plus avancés, avant et après leur mise sur le marché.

Jusqu’alors, Donald Trump avait systématiquement rejeté les politiques de son prédécesseur Joe Biden, qualifiant les vérifications volontaires de sécurité d’« surrégulation étouffant l’innovation ». Dès son arrivée à la Maison-Blanche, il avait même rebaptisé l’US AI Safety Institute en Center for AI Standards and Innovation (CAISI), supprimant toute référence à la « sécurité » dans le nom, en signe de désaveu envers les mesures de son prédécesseur.

Cependant, la situation a radicalement changé après l’annonce d’Anthropic concernant son dernier modèle, Claude Mythos. L’entreprise a jugé trop risqué de le commercialiser, craignant que des acteurs malveillants n’exploitent ses capacités avancées en cybersécurité.

Cette prise de conscience soudaine a poussé l’administration Trump à reconsidérer sa position. Selon Kevin Hassett, directeur du Conseil national de l’économie de la Maison-Blanche, le président pourrait bientôt signer un décret exécutif imposant des tests gouvernementaux obligatoires pour les systèmes d’IA avancés avant leur déploiement, a rapporté Fortune.