OpenAI ha annunciato il rilascio di una versione meno restrittiva di GPT-5.5, soprannominata "Spud", riservata a difensori informatici autorizzati. L’iniziativa, presentata giovedì, mira a potenziare la sicurezza delle infrastrutture critiche, ma solleva interrogativi sulla gestione di modelli AI sempre più potenti.
Le capacità di GPT-5.5-Cyber: un confronto con Mythos
Secondo fonti vicine al progetto, GPT-5.5-Cyber offre prestazioni simili a quelle di Mythos Preview di Anthropic, un modello già noto per la sua efficacia nel rilevare e sfruttare vulnerabilità software. In un recente test di sicurezza, Mythos ha superato GPT-5.5 in un’operazione simulata di attacco informatico, completando con successo il 30% delle prove contro il 20% del modello di OpenAI.
Il nuovo modello, accessibile tramite il programma Trusted Access for Cyber di OpenAI, consente agli esperti di:
- Automatizzare la ricerca di bug e l’analisi di malware;
- Eseguire simulazioni per valutare la sicurezza delle infrastrutture;
- Scrivere proof of concept per vulnerabilità scoperte;
- Analizzare codice sconosciuto e revisionare patch software.
Tuttavia, restano attive alcune limitazioni: il modello non può essere utilizzato per rubare credenziali o creare malware, come specificato dalla stessa OpenAI.
Un dibattito urgente tra Silicon Valley e Casa Bianca
L’introduzione di modelli AI avanzati come GPT-5.5-Cyber e Mythos ha acceso un acceso dibattito su come bilanciare innovazione e rischi. Mentre Anthropic ha scelto un approccio più restrittivo, concedendo l’accesso a Mythos a sole 40 organizzazioni, OpenAI ha optato per una strategia più aperta: una versione con guardrail più stringenti affiancata da una meno limitata per aziende selezionate.
Il Regno Unito, attraverso l’AI Security Institute, ha recentemente testato GPT-5.5 in un attacco informatico simulato di 32 passaggi, completandolo con successo nel 20% dei casi. Mythos, invece, ha raggiunto il 30% di successo, segnando un primato per i modelli AI fino a oggi.
Le differenze tra le due strategie
Anthropic ha avviato anche il Project Glasswing, una rete di aziende che collaborano nello studio di Mythos e condividono informazioni sulle vulnerabilità scoperte. OpenAI, invece, punta su un modello più accessibile, pur mantenendo controlli rigorosi per evitare abusi.
Secondo gli analisti, questa competizione tra le due aziende potrebbe accelerare lo sviluppo di strumenti di difesa informatica, ma anche aumentare i rischi legati all’uso improprio di tali tecnologie.
Cosa aspettarsi nei prossimi mesi
La Casa Bianca sta valutando una serie di azioni esecutive per regolamentare il rilascio di modelli AI avanzati, soprattutto in ambito governativo. Nel frattempo, gli esperti di sicurezza informatica dovranno affrontare una nuova sfida: sfruttare al meglio questi strumenti senza compromettere la sicurezza globale.
«I modelli AI come GPT-5.5-Cyber rappresentano una rivoluzione per la sicurezza informatica, ma richiedono un quadro normativo solido per evitare che finiscano nelle mani sbagliate» — Dichiarazione di un portavoce di OpenAI.