Un modello AI troppo potente per essere diffuso pubblicamente
Anthropic, una delle principali aziende nel settore dell’intelligenza artificiale, ha recentemente annunciato il rilascio di Claude Mythos Preview, il suo ultimo modello AI, con una decisione insolita: sarà disponibile solo per un numero limitato di aziende. La ragione? Le sue straordinarie capacità di identificare vulnerabilità nei sistemi di sicurezza.
Durante i test, il modello si è rivelato eccezionalmente efficace nel rilevare falle critiche in software di ogni tipo, sollevando preoccupazioni sulla sicurezza globale. Per questo motivo, Anthropic ha avviato Project Glasswing, un programma riservato a poche organizzazioni selezionate, tra cui giganti tecnologici come Nvidia, JP Morgan Chase e Google, oltre a una ventina di altre aziende che gestiscono infrastrutture software critiche.
Come funziona Claude Mythos Preview
Progettato inizialmente come un modello AI generico, Claude Mythos Preview ha dimostrato capacità inaspettate nel campo della cybersecurity. Il suo funzionamento si basa su un meccanismo simile ad altri modelli AI: gli utenti possono sollecitarlo per identificare vulnerabilità nei propri sistemi.
Ad esempio, un’azienda come Google Chrome potrebbe utilizzarlo per analizzare specifiche parti del browser alla ricerca di falle di sicurezza. Una volta identificate, le vulnerabilità vengono segnalate e risolte internamente. Tuttavia, lo stesso modello potrebbe essere sfruttato da hacker per scoprire e sfruttare queste debolezze.
Perché Anthropic ha limitato l’accesso al modello
La preoccupazione principale di Anthropic è che un modello così potente possa cadere nelle mani sbagliate. Un eventuale utilizzo malevolo potrebbe fornire a criminali informatici una mappa dettagliata delle vulnerabilità di sistemi ad alta sicurezza, mettendo a rischio dati sensibili e infrastrutture critiche.
Per questo motivo, il modello viene condiviso solo con organizzazioni affidabili, che possono utilizzarlo per rafforzare le proprie difese prima che possibili attacchi possano essere sferrati. Tra i partecipanti al programma ci sono anche aziende come Nvidia e JP Morgan Chase, che gestiscono infrastrutture fondamentali per l’economia globale.
Le dichiarazioni degli esperti
«Abbiamo realizzato che Mythos aveva capacità che non avevamo previsto. Era eccezionalmente abile nel trovare vulnerabilità ad alto rischio in quasi tutti i sistemi operativi. Se finisse nelle mani sbagliate, sarebbe un incubo per la sicurezza globale».
Le implicazioni per il futuro della sicurezza informatica
La decisione di Anthropic solleva importanti questioni sul futuro dell’IA e della sicurezza informatica. Da un lato, modelli come Mythos potrebbero rivoluzionare la prevenzione delle minacce, aiutando le aziende a identificare e risolvere vulnerabilità prima che vengano sfruttate. Dall’altro, rappresentano un rischio senza precedenti se utilizzati in modo improprio.
Gli esperti sottolineano la necessità di regolamentazioni più rigorose sull’uso dell’IA, soprattutto in settori critici come la finanza, la sanità e le infrastrutture nazionali. La sfida per le aziende sarà bilanciare l’innovazione tecnologica con la protezione dei dati e dei sistemi.