Un attacco senza precedenti sfrutta l'IA per scoprire una vulnerabilità sconosciuta

Google ha recentemente sventato un attacco informatico che ha destato grande preoccupazione all'interno dell'azienda. Secondo quanto riportato dai ricercatori di Google Threat Intelligence Group, gli hacker avrebbero utilizzato l'intelligenza artificiale per identificare una vulnerabilità zero-day, ovvero un difetto di sicurezza sconosciuto agli sviluppatori del colosso tecnologico. Questo episodio rappresenta il primo caso documentato di sfruttamento di una vulnerabilità zero-day sviluppata con l'aiuto dell'IA.

Come l'attacco avrebbe potuto compromettere la sicurezza degli utenti

La vulnerabilità individuata avrebbe permesso agli attaccanti di bypassare l'autenticazione a due fattori su uno strumento di amministrazione web open source molto diffuso. Tuttavia, per sfruttare appieno questa falla, gli hacker avrebbero dovuto conoscere le credenziali di accesso dell'utente. Nonostante ciò, la possibilità di aggirare un sistema di sicurezza così diffuso avrebbe potuto avere conseguenze catastrofiche, soprattutto considerando che molte password sono deboli o già compromesse in precedenti violazioni dei dati.

Secondo il rapporto di Google, «il criminale informatico aveva pianificato di utilizzare questa vulnerabilità in un evento di sfruttamento di massa, ma la nostra scoperta proattiva potrebbe averlo prevenuto». Gli esperti hanno sottolineato che questo episodio è solo la punta dell'iceberg e che simili attacchi potrebbero diventare sempre più frequenti con l'evoluzione dell'IA.

L'IA come strumento per gli hacker: un nuovo fronte nella cybersecurity

L'utilizzo dell'IA da parte dei cybercriminali rappresenta una minaccia crescente per la sicurezza informatica globale. Secondo John Hultquist, chief analyst di Google Threat Intelligence Group, «questo è solo l'inizio. Crediamo che il problema sia molto più ampio e che questa sia solo la prima prova tangibile che possiamo osservare».

La preoccupazione per le potenzialità dell'IA nella scoperta di vulnerabilità è ulteriormente aumentata dopo il rilascio del modello Claude Mythos di Anthropic. Secondo l'azienda, questo sistema di intelligenza artificiale sarebbe in grado di identificare vulnerabilità zero-day «in ogni sistema operativo e browser web di rilievo», una capacità potenzialmente devastante. Per questo motivo, Anthropic ha limitato l'accesso al modello a un gruppo selezionato di aziende e agenzie governative. La notizia ha suscitato allarme tra i leader politici e gli esperti di sicurezza informatica.

Le caratteristiche del malware sviluppato con IA

I ricercatori di Google hanno analizzato il malware utilizzato nell'attacco e hanno rilevato alcune caratteristiche distintive tipiche dei modelli di linguaggio di grandi dimensioni (LLM). Tra queste, un'abbondanza di annotazioni nel codice chiamate docstrings, alcune parti di testo generate in modo errato (hallucinazioni) e una struttura «testuale e formale altamente caratteristica dei dati di addestramento degli LLM». Queste peculiarità confermano l'utilizzo di strumenti basati su IA per lo sviluppo del malware.

Le implicazioni per il futuro della sicurezza informatica

L'attacco segna un punto di svolta nella cybersecurity, dimostrando come l'IA possa essere utilizzata sia per difendere che per attaccare i sistemi informatici. Mentre le aziende tecnologiche cercano di adattarsi a questa nuova minaccia, gli esperti avvertono che simili episodi potrebbero diventare sempre più frequenti. La capacità dell'IA di analizzare e generare codice a una velocità e precisione senza precedenti rappresenta una sfida senza precedenti per la sicurezza globale.

«Questo episodio è un assaggio di ciò che ci aspetta. Crediamo che il problema sia molto più ampio e che questa sia solo la prima prova tangibile che possiamo osservare».

John Hultquist, chief analyst di Google Threat Intelligence Group
Fonte: Futurism