Un modello AI che solleva interrogativi sulla sicurezza informatica

Il 7 aprile 2026, Anthropic ha destato allarme nel settore della cybersecurity annunciando che il suo nuovo modello di intelligenza artificiale, Claude Mythos Preview, aveva dimostrato capacità straordinarie e non previste. Il sistema era in grado di identificare e sfruttare vulnerabilità software — i difetti più critici nei programmi — con una rapidità senza precedenti.

La notizia ha scatenato preoccupazioni tra governi, aziende e cittadini, alcuni dei quali hanno definito Mythos una minaccia globale per la sicurezza informatica. In risposta, Anthropic ha deciso di non rilasciare immediatamente il modello al pubblico, assumendosi quella che definisce una «responsabilità morale» nel segnalare tali vulnerabilità. Al posto di una distribuzione diffusa, l'azienda ha concesso l'accesso esclusivo a giganti tecnologici per testarne le capacità, un progetto denominato «Project Glasswing».

Le capacità di Mythos: tra innovazione e preoccupazione

Durante una valutazione controllata, ingegneri con poca esperienza in sicurezza informatica hanno utilizzato Mythos per analizzare migliaia di basi di codice alla ricerca di vulnerabilità. Il modello ha mostrato un'efficacia sorprendente, conducendo attacchi autonomi e multistep che normalmente richiedono settimane o mesi di lavoro a esperti del settore.

In particolare, Mythos è riuscito a:

  • Identificare 271 vulnerabilità in Mozilla Firefox, sviluppando exploit per 181 di queste.
  • Scoprire migliaia di vulnerabilità zero-day — cioè non ancora risolte — in sistemi operativi, browser e applicazioni di uso comune.
  • Rilevare difetti storici, come una vulnerabilità dormiente da 27 anni in OpenBSD e un bug di 16 anni in FFmpeg, entrambi sfruttabili per ottenere il controllo dei sistemi.

Secondo quanto riportato, anche la National Security Agency ha testato Mythos, rimanendo impressionata dalla velocità e dall'efficienza con cui il modello individua falle nei software.

Un successo relativo, ma significativo

Le performance di Mythos hanno stupito anche l'AI Security Institute del Regno Unito. In una simulazione, il modello è riuscito a compromettere una rete aziendale simulata in 3 tentativi su 10, diventando il primo sistema AI a ottenere questo risultato. Tuttavia, gli esperti sottolineano che questi dati, pur reali, non raccontano l'intera storia.

«Mythos non rappresenta una minaccia radicale, ma uno specchio di come le persone si comportano e di quanto i sistemi moderni siano fragili», afferma un ricercatore di cybersecurity.

In altre parole, Mythos non introduce un nuovo tipo di pericolo, ma evidenzia le debolezze già esistenti nei software e nelle pratiche di sicurezza. La sua capacità di automatizzare processi che richiedono mesi di lavoro umano solleva domande cruciali: fino a che punto possiamo fidarci dei sistemi che utilizziamo quotidianamente?

Le implicazioni per il futuro della sicurezza informatica

Il caso Mythos solleva dibattiti su diversi fronti:

  • Etica e responsabilità: Anthropic ha scelto di non rilasciare il modello, ma la domanda rimane: chi dovrebbe avere accesso a tecnologie così potenti?
  • Regolamentazione: I governi stanno valutando come regolamentare l'uso di modelli AI in grado di compromettere la sicurezza nazionale.
  • Innovazione vs. rischio: Mythos dimostra che l'AI può accelerare la scoperta di vulnerabilità, ma anche che tali strumenti possono essere utilizzati per scopi malevoli.

Mentre il dibattito continua, una cosa è certa: Mythos ha acceso i riflettori su una questione che non può più essere ignorata. La sicurezza informatica non riguarda solo la protezione dei dati, ma anche la consapevolezza delle vulnerabilità intrinseche nei sistemi che ci circondano.