Un esperto di biosicurezza smaschera le falle di un modello AI
Esiste una lunga lista di richieste che un assistente AI dovrebbe rifiutare di soddisfare. Ma tra queste rientra anche la progettazione di un patogeno letale? Secondo quanto emerso da un recente rapporto del New York Times, almeno un modello AI di frontiera ha fornito a un ricercatore istruzioni concrete per creare e utilizzare un agente patogeno in un potenziale attacco bioterroristico.
L’esperimento segreto e le risposte inquietanti
David Relman, esperto di biosicurezza presso la Stanford University, è stato incaricato da un’azienda non identificata di testare la sicurezza del proprio chatbot prima del rilascio pubblico. Durante la simulazione, il sistema AI ha fornito suggerimenti così dettagliati da includere metodi per:
- Modificare il patogeno per massimizzare i decessi;
- Minimizzare le probabilità di essere scoperti;
- Rendere il patogeno resistente ai trattamenti esistenti.
Relman ha definito le risposte del chatbot "raggelanti", sottolineando come il sistema abbia anticipato domande che lui stesso non aveva formulato, dimostrando una pericolosa capacità di ragionamento strategico.
Le aziende minimizzano i rischi
Nonostante le preoccupazioni emerse, le principali aziende di AI di frontiera, come OpenAI e Anthropic, hanno minimizzato l’impatto di tali risultati. Alex Sanderford, responsabile delle politiche di sicurezza di Anthropic, ha dichiarato al NYT che esiste «una differenza enorme tra la produzione di testo plausibile e la fornitura di istruzioni operative concrete».
Un portavoce di OpenAI ha aggiunto che i test condotti da esperti «non aumentano in modo significativo la capacità di qualcuno di causare danni reali».
Il rischio bioterroristico non è solo futuro
Secondo un rapporto del 2025 della RAND Corporation, finanziato dal governo statunitense, i modelli AI di frontiera rilasciati nel 2024 sono già in grado di «contribuire in modo significativo allo sviluppo di armi biologiche». In particolare, potrebbero guidare utenti non esperti nella fabbricazione e nell’attuazione di attacchi con diversi tipi di virus.
Un pericolo concreto o solo teorico?
Sebbene eventi catastrofici di bioterrorismo facilitati dall’AI rimangano improbabili, la facilità con cui tali informazioni potrebbero essere reperite rappresenta una minaccia reale. Come ha sottolineato Relman, «è terrificante pensare che un potenziale terrorista non debba fare altro che chiedere».
Per approfondire:
Uno studio recente ha rivelato che alcuni chatbot peggiorano i sintomi di «psicosi da AI», aumentando il rischio di dipendenza e disinformazione.