I modelli di intelligenza artificiale sviluppati da Anthropic e OpenAI, progettati per potenziare la cybersecurity, potrebbero ancora dipendere in modo significativo dall'intervento umano per funzionare al meglio. Questo è quanto emerge dai recenti test condotti in ambienti reali dagli utenti che hanno sperimentato questi sistemi avanzati.

L'evoluzione della cybersecurity guidata dall'IA

Quando Anthropic ha presentato Mythos Preview, ha avvertito che il modello era così potente da rilevare decine di migliaia di vulnerabilità in quasi tutti i sistemi operativi. Test indipendenti suggeriscono che anche OpenAI GPT-5.5-Cyber offre prestazioni simili, in grado di identificare bug e scrivere exploit con efficacia. Aziende e governi di tutto il mondo sono in fermento per ottenere accesso a questi modelli, consapevoli che presto potrebbero finire nelle mani di attaccanti.

Le scoperte chiave dai primi utilizzatori

Palo Alto Networks ha dichiarato di aver rilevato 75 vulnerabilità utilizzando i modelli di Anthropic e OpenAI, rispetto alle 5-10 scoperte mensilmente con i metodi tradizionali. I ricercatori hanno inoltre notato che questi sistemi sono sempre più abili nel collegare vulnerabilità apparentemente minori per creare catene di attacco efficaci.

Microsoft, nel suo nuovo sistema di sicurezza agentico basato su modelli avanzati, ha individuato 16 nuove vulnerabilità nello stack di rete e autenticazione di Windows. L'azienda ha sottolineato che gli strumenti basati sull'IA potrebbero aumentare il volume complessivo delle vulnerabilità scoperte, esercitando una pressione maggiore sui difensori affinché identifichino e risolvano le falle più rapidamente.

Cisco ha recentemente pubblicato Foundry Security Spec, una guida open source su come le organizzazioni dovrebbero integrare i modelli AI avanzati nei propri processi di sicurezza.

Le potenzialità e i limiti dell'IA nella sicurezza informatica

XBOW, startup specializzata in penetration testing basato su IA, ha definito Mythos "estremamente potente per le revisioni del codice sorgente" in un post pubblicato questa settimana. Tuttavia, i test interni hanno evidenziato che il modello è "buono, ma meno efficace nella validazione degli exploit", risultando a volte "troppo letterale e conservativo" e sovrastimando la rilevanza pratica delle sue scoperte.

Palo Alto Networks, che ha lavorato con Mythos, Opus 4.7 e GPT-5.5-Cyber, ha registrato un tasso di falsi positivi del 30% nei suoi prodotti. Questo dato è migliorato man mano che l'azienda ha addestrato il modello sull'ambiente specifico da analizzare.

Daniel Stenberg, sviluppatore principale del progetto open source Curl, ha dichiarato che Mythos ha rilevato una vulnerabilità di bassa gravità nel codice del progetto, insieme a diversi falsi positivi e un'altra issue considerata trascurabile. Questo esempio sottolinea quanto sia ancora necessario un controllo umano approfondito.

Le raccomandazioni degli esperti

All'interno dei documenti tecnici di Cisco si trovano indicazioni preziose sulle capacità dei nuovi modelli. Secondo la società, "un modello di frontiera produce affermazioni fluide, convincenti e plausibili sulle vulnerabilità, ma sbaglia con una frequenza tale da rendere inutilizzabili i risultati non revisionati".

Invece di limitarsi a chiedere ai modelli di essere più accurati, i ricercatori di Cisco hanno scoperto che i risultati migliorano quando si istruisce il sistema a produrre affermazioni "verificabili".

Il futuro della cybersecurity: un equilibrio tra IA e competenza umana

Nonostante i progressi tecnologici, i risultati dei test dimostrano che l'IA da sola non può sostituire l'esperienza e la capacità di giudizio degli esperti di sicurezza. I modelli più avanzati richiedono una supervisione umana costante per validare i risultati, guidare i flussi di lavoro e distinguere tra vulnerabilità reali e falsi allarmi. In un contesto in cui le minacce informatiche diventano sempre più sofisticate, l'integrazione tra intelligenza artificiale e competenza umana rimane la strategia più efficace per proteggere i sistemi digitali.

Fonte: Axios