Le département du Commerce des États-Unis bénéficiera désormais d'un accès anticipé aux modèles d'intelligence artificielle développés par certains des plus grands acteurs technologiques du pays. Cette initiative, annoncée aujourd'hui, inclut des entreprises comme Google, Microsoft et xAI, qui ont accepté de collaborer avec les autorités pour évaluer les risques potentiels liés à ces technologies.

L'objectif principal de cet accord est de permettre au gouvernement américain de réaliser des évaluations de sécurité approfondies avant que ces modèles ne soient largement déployés. Ces évaluations permettront d'identifier et de mitiger les risques liés à la sécurité, à la confidentialité ou à l'éthique, afin d'éviter des conséquences imprévues lors de leur utilisation à grande échelle.

Cette démarche s'inscrit dans un contexte où les gouvernements du monde entier cherchent à encadrer le développement des technologies d'IA, souvent perçues comme une menace potentielle en raison de leur rapidité d'évolution et de leur complexité croissante.

Les entreprises concernées ont souligné l'importance de cette collaboration pour garantir que l'IA reste une force positive pour la société. Brad Smith, président de Microsoft, a déclaré :

« Nous croyons fermement que l'innovation technologique doit aller de pair avec une responsabilité accrue. Cet accord avec le département du Commerce nous permettra de travailler ensemble pour garantir que les modèles d'IA sont sûrs, transparents et alignés sur les valeurs démocratiques. »

De son côté, un porte-parole de Google a indiqué que l'entreprise était « engagée à soutenir les efforts du gouvernement pour renforcer la sécurité des technologies d'IA ». Quant à xAI, fondée par Elon Musk, elle a confirmé sa participation à cette initiative, bien que peu de détails aient été divulgués sur les modalités exactes de cet accord.

Cette annonce intervient alors que le président américain Joe Biden a récemment signé un décret visant à renforcer la régulation de l'IA aux États-Unis. Ce décret, qui s'appuie sur un précédent ordre exécutif de 2023, vise à établir des normes strictes pour les développeurs et les utilisateurs de ces technologies.

Les experts s'accordent à dire que cette collaboration entre le secteur privé et le gouvernement marque une étape importante dans la régulation de l'IA. Cependant, certains soulignent que des questions subsistent, notamment sur la manière dont ces évaluations seront menées et sur l'équilibre entre innovation et contrôle.

Source : Engadget