L’allarme di Anthropic: l’IA potrebbe "procreare" senza controllo umano
Le aziende leader nel settore dell’intelligenza artificiale non smettono di lanciare moniti sui pericoli dell’IA, ma allo stesso tempo accelerano la corsa allo sviluppo tecnologico. Anthropic, laboratorio dietro il modello linguistico Claude, ha recentemente diffuso un documento in cui avverte di un’imminente "esplosione di intelligenza", un fenomeno in cui i sistemi AI potrebbero migliorare autonomamente senza alcun intervento umano.
Secondo Jack Clark, cofondatore di Anthropic, entro la fine del 2028 è probabile che esista un sistema AI in grado di ricevere un comando come "Crea una versione migliore di te stesso" e portarlo a termine in completa autonomia. Una previsione che, come sottolinea Axios, si inserisce in una strategia consolidata dell’azienda: "La nostra identità è legata all’avvertire il mondo sui rischi dell’IA".
Il paradosso dell’IA: allarmi e finanziamenti record
Anthropic non è sola in questa narrazione. Anche OpenAI, creatrice di ChatGPT, alterna messaggi di pericolo a una frenetica corsa allo sviluppo. Mentre i vertici aziendali parlano di rischi esistenziali, le stesse società raccolgono capitali senza precedenti. Secondo il Wall Street Journal, OpenAI ha recentemente permesso a dipendenti e ex dipendenti di vendere azioni per un valore complessivo di 30 milioni di dollari, con oltre 600 persone che hanno aderito, generando transazioni per 6,6 miliardi di dollari.
Il contrasto tra allarmismo e ambizione commerciale è evidente. Le aziende che sviluppano l’IA avvertono di rischi catastrofici, ma al contempo accelerano la distribuzione dei loro prodotti, in una competizione senza sosta per dominare quello che viene definito il più importante cambiamento tecnologico della storia.
I cinque rischi esistenziali secondo Anthropic
In un saggio pubblicato a gennaio intitolato "The Adolescence of Technology", Dario Amodei, CEO di Anthropic, delinea cinque categorie di rischi esistenziali legati all’IA:
- Sistemi AI autonomi fuori controllo: agenti artificiali che sfuggono al controllo umano.
- Uso malevolo per distruzione di massa: armi autonome o manipolazione su larga scala.
- Cattura autoritaria dell’IA: strumentalizzazione per controllo politico e sorveglianza di massa.
- Disruzione economica: automazione massiccia che destabilizza i mercati del lavoro.
- Concentrazione estrema della ricchezza: asimmetrie di potere nelle mani di pochi attori.
Amodei paragona questa fase allo "stadio adolescenziale" della tecnologia, un momento di transizione critica tra il mondo attuale e quello che potrebbe emergere. Il saggio cita anche Carl Sagan e il suo romanzo Contact, sottolineando come l’umanità si trovi a un bivio storico.
Da avvertimento a strumento di fundraising: il doppio volto dell’allarmismo
Solo 17 giorni dopo la pubblicazione del saggio, Anthropic ha annunciato un round di finanziamento da 30 miliardi di dollari, portando la sua valutazione a 380 miliardi. Ma la strategia non si ferma qui: secondo il Financial Times, l’azienda starebbe cercando di raccogliere decine di miliardi in più quest’estate, con l’obiettivo di raggiungere una valutazione di 1.000 miliardi di dollari, superando così OpenAI (attualmente valutata 852 miliardi).
Questa sequenza di eventi non è casuale. Il saggio di Amodei non è solo un monito, ma anche un pitch per investitori. Il messaggio "Questa tecnologia è la più importante della storia umana" funziona sia come avvertimento che come promessa di rendimento economico. Allo stesso modo, l’affermazione "Siamo i responsabili" diventa sia un claim morale che un vantaggio competitivo. E il timore che "la Cina stia recuperando" si trasforma sia in una preoccupazione geopolitica che in un argomento per rendere patriottico il prossimo round di finanziamenti.
"L’IA rappresenta una trasformazione senza precedenti, ma anche un rischio esistenziale. Le aziende che la sviluppano si trovano a dover bilanciare l’urgenza di avvertire il mondo con la necessità di accelerare lo sviluppo per non perdere il passo nella competizione globale."
Un futuro in bilico tra promesse e pericoli
Il dilemma è chiaro: mentre governi e corporation integrano l’IA in settori critici come difesa, istruzione e amministrazione pubblica, nessuno sembra disposto a fermare la corsa. Tutti riconoscono i rischi, ma nessuno può permettersi di restare indietro. Il risultato è una situazione in cui l’allarmismo diventa uno strumento di marketing, e la paura del disastro si mescola con la speranza di un progresso senza limiti.
In questo scenario, le profezie catastrofiste potrebbero essere meno una previsione e più una strategia per attrarre investimenti e consolidare il potere. Resta da vedere se l’umanità saprà gestire questa fase di transizione senza soccombere ai rischi che essa stessa ha creato.