Le previsioni di Anthropic sull’ascesa degli impiegati AI autonomi
Un anno fa, Jason Clinton, Chief Information Security Officer di Anthropic, aveva lanciato un avvertimento: entro dodici mesi, agenti AI dotati di "memoria" e ruoli aziendali specifici avrebbero iniziato a muoversi all’interno delle infrastrutture digitali delle grandi imprese. Ogni entità avrebbe avuto un proprio ID aziendale e credenziali di accesso.
«In quel futuro ci sono ancora molti problemi di sicurezza che non abbiamo risolto e che dobbiamo affrontare».
Jason Clinton, CISO di Anthropic
Clinton intendeva lanciare un segnale d’allerta verso il mondo della sicurezza informatica. Tuttavia, come dimostra l’ultimo anno, le sue previsioni si sono rivelate eccessivamente ottimistiche, se non del tutto sbagliate. Anche altri leader tecnologici hanno ripetuto simili avvertimenti sul boom degli AI autonomi, ma oggi gli agentic AI — il termine usato per descrivere questi impiegati virtuali — faticano a mantenere le promesse.
Fallimenti e iperboli: il bilancio di un anno di agenti AI
Diversi studi pubblicati quest’anno hanno evidenziato gravi limiti degli agenti AI. Uno di questi sostiene che tali sistemi non potranno mai essere affidabili o accurati. Se confermato, ciò significa che la loro capacità di generare valore economico è stata e continua a essere ampiamente sopravvalutata, se non addirittura gonfiata ad arte.
Questa tendenza non è nuova per Anthropic. Nel marzo 2023, il CEO Dario Amodei aveva previsto che, in sei mesi, l’AI avrebbe scritto il 90% del codice aziendale. Sei mesi dopo, le promesse si sono sgonfiate: gli strumenti di coding AI, infatti, hanno rallentato gli sviluppatori a causa di output spesso scadenti e poco affidabili.
Interessi economici e narrazioni fuorvianti
La pressione per mantenere alto l’interesse verso l’AI spinge molti leader tecnologici a diffondere previsioni troppo ottimistiche. Gli incentivi finanziari sono evidenti: le aziende puntano a giustificare investimenti miliardari in un settore ancora incerto. Tuttavia, la realtà dimostra che le promesse di una rivoluzione immediata degli agenti AI autonomi sono ben lontane dall’essere realizzate.
Un esempio recente è il Claude Leak, che ha rivelato come Anthropic tracci i linguaggi volgari degli utenti, classificandoli come "negativi". Un caso che solleva ulteriori dubbi sulla trasparenza e l’etica di queste tecnologie.
Conclusioni: tra promesse e realtà
Le previsioni di Anthropic e di altri attori del settore sull’ascesa degli impiegati AI autonomi si sono scontrate con la realtà dei fatti. Nonostante gli annunci trionfalistici, gli agenti AI faticano a dimostrare affidabilità e sicurezza, mentre le aspettative economiche rimangono disattese. Il divario tra promesse e risultati concreti continua a crescere, mettendo in discussione il futuro immediato di questa tecnologia.