Washington — L’amministrazione Trump, che nel 2025 aveva promesso di liberare l’intelligenza artificiale da vincoli governativi, sta ora preparando una stretta senza precedenti sui modelli più avanzati del pianeta. Dopo appena 15 mesi dall’insediamento, la Casa Bianca si appresta a diventare il principale controllore delle tecnologie AI più potenti al mondo.

Il cambiamento di rotta è radicale. L’IA ha superato una soglia critica: nessun governo, nemmeno uno che si dichiara favorevole alla non ingerenza, può più permettersi di ignorare la sua evoluzione. A Silicon Valley e a Washington si respira aria di trasformazione, accelerata da una nuova generazione di modelli in grado di individuare vulnerabilità informatiche con precisione e velocità mai viste prima.

Il caso Mythos e la corsa globale

Il panico è scattato quando Anthropic ha ritirato il suo modello Mythos per motivi di sicurezza, impedendone la diffusione pubblica. Ma con l’arrivo di GPT-5.5 di OpenAI, che pareggia le capacità del sistema ritirato, e i laboratori cinesi che si mettono al passo, Mythos non sarà l’unico caso. Solo due mesi fa, il Pentagono aveva classificato Anthropic come «rischio per la catena di fornitura», di fatto escludendola da contratti governativi. Ora, però, la Casa Bianca sta elaborando linee guida che permetterebbero alle agenzie federali di aggirare questo divieto e utilizzare i nuovi modelli di Anthropic, secondo quanto riportato da Axios.

L’ordine esecutivo in arrivo

Questa è solo la prima mossa. La Casa Bianca starebbe valutando un ordine esecutivo che attribuirebbe al governo federale un ruolo attivo nella valutazione di tutti i nuovi modelli AI prima della loro commercializzazione, come riferito dal New York Times. L’ordine prevedrebbe la creazione di un gruppo di lavoro composto da dirigenti tecnologici e funzionari statunitensi incaricato di definire le procedure di controllo, con opzioni che includono una revisione formale da parte delle autorità.

I funzionari della Casa Bianca hanno già incontrato rappresentanti di Anthropic, Google e OpenAI per discutere i piani preliminari. Alcuni esponenti dell’amministrazione spingono per un sistema che garantisca al governo l’accesso prioritario ai nuovi modelli AI, senza però bloccarne la distribuzione, secondo quanto riportato dal Times.

Parallelamente, l’ufficio per la cybersicurezza della Casa Bianca sta sviluppando un quadro normativo che obbligherebbe il Pentagono a testare la sicurezza dei modelli AI prima del loro impiego da parte di governi federali, statali e locali, come riferito da Axios.

Un funzionario della Casa Bianca ha dichiarato che qualsiasi annuncio ufficiale «proverrà direttamente dal presidente» e che le discussioni su «eventuali ordini esecutivi sono ancora in fase di valutazione».

Collaborazione forzata o strategica?

Fonti interne ai principali laboratori di intelligenza artificiale hanno confermato ad Axios di collaborare con la Casa Bianca in questa nuova iniziativa. L’amministrazione Trump riconosce le crescenti capacità dei modelli AI, mentre i laboratori comprendono la necessità di collaborare con il governo per evitare misure più drastiche. Secondo fonti coinvolte nei colloqui, l’accordo potrebbe essere raggiunto entro poche settimane.

Le aziende leader del settore vogliono collaborare con il governo per accelerare la distribuzione di strumenti di difesa informatica, fondamentali per proteggere le infrastrutture critiche.

Da deregulation a controllo totale

Il primo anno dell’amministrazione Trump è stato caratterizzato dalla sistematica smantellamento di ogni iniziativa di sicurezza AI ereditata dall’era Biden. Il primo giorno in carica, il presidente ha revocato l’ordine esecutivo di Biden che imponeva agli sviluppatori di condurre valutazioni di sicurezza e segnalare i modelli con potenziali applicazioni militari. Poche settimane dopo, il vicepresidente JD Vance, durante il vertice sull’IA di Parigi, aveva dichiarato che

Fonte: Axios