Per la prima volta, Google ha rilevato e bloccato un exploit zero-day sviluppato con il supporto dell’intelligenza artificiale. Secondo un rapporto del Google Threat Intelligence Group (GTIG), attori minacciosi di alto profilo stavano pianificando di utilizzare questa vulnerabilità per un attacco di massa.
L’exploit avrebbe permesso ai cybercriminali di bypassare l’autenticazione a due fattori su uno strumento open source di amministrazione web, non meglio specificato. Gli analisti di Google hanno notato nel codice Python utilizzato per l’attacco indizi chiari di generazione automatica, come un punteggio CVSS “allucinato” e una struttura testuale coerente con i dati di addestramento dei modelli linguistici di grandi dimensioni (LLM).
L’exploit sfrutta una vulnerabilità non ancora patchata in uno strumento di gestione web, ma Google non ha fornito ulteriori dettagli per evitare che altri attori malevoli possano replicare l’attacco. La società ha sottolineato che la scoperta evidenzia come l’IA stia diventando uno strumento sempre più accessibile anche per i criminali informatici.
«Questo caso dimostra che l’IA può accelerare lo sviluppo di exploit sofisticati, riducendo i tempi e le competenze necessarie per creare attacchi mirati», ha dichiarato un portavoce di Google Threat Intelligence.
La società ha già segnalato la vulnerabilità ai responsabili dello strumento interessato e ha collaborato per implementare una patch di emergenza. Nonostante l’intervento tempestivo, l’episodio solleva preoccupazioni sulla crescente sofisticazione degli attacchi informatici e sull’uso dell’IA a fini malevoli.