Un laboratorio di intelligenza artificiale, noto per i suoi ripetuti avvertimenti sui rischi dell'IA, sta segnalando i primi segni di un fenomeno senza precedenti: sistemi capaci non solo di sviluppare prodotti autonomamente, ma anche di auto-migliorarsi in modo ricorsivo. Secondo Anthropic, questo processo potrebbe accelerare drasticamente entro il 2028, portando a una potenziale 'esplosione di intelligenza'.
Le previsioni di Anthropic: entro il 2028 un'IA potrebbe addestrare se stessa
Jack Clark, cofondatore di Anthropic e responsabile del nuovo Anthropic Institute, ha dichiarato in un'intervista esclusiva che esiste una probabilità superiore al 60% che, entro la fine del 2028, un modello di intelligenza artificiale sia in grado di addestrare autonomamente il proprio successore.
«Quello che osservo è una tendenza tecnologica in cui, se possibile, la velocità di sviluppo accelererà ulteriormente», ha affermato Clark durante un incontro presso la sede di Anthropic a San Francisco. «La mia previsione è che, entro la fine del 2028, sarà più probabile che no avere un sistema di intelligenza artificiale al quale si possa dire: "Crea una versione migliore di te stesso", e che lo faccia in modo completamente autonomo».
Dall'auto-miglioramento alla 'esplosione di intelligenza'
In un documento di cinque pagine, reso pubblico giovedì, Anthropic descrive i primi segnali di un fenomeno noto come ricorsivo auto-miglioramento: l'IA che contribuisce ad accelerare la propria ricerca e sviluppo. Fino ad oggi, questo concetto era confinato ai dibattiti degli esperti di sicurezza AI, ma ora è ufficialmente documentato.
Clark spiega che una 'esplosione di intelligenza' si verifica quando i sistemi di IA iniziano a migliorare a una velocità tale da diventare incontrollabili. Questo fenomeno potrebbe avere conseguenze sia positive che negative:
«Cosa faremmo con una crescita esponenziale in campi come la scienza, la medicina o la biologia? Oggi le istituzioni hanno canali molto stretti per l'approvazione di nuovi farmaci. Come possiamo ampliare drasticamente questi canali in previsione di questa abbondanza?»
Tra i rischi citati ci sono cyberattacchi su larga scala, attacchi biologici e sorveglianza di massa, ma anche opportunità senza precedenti per la ricerca scientifica e medica.
Le quattro aree di ricerca dell'Anthropic Institute
L'Anthropic Institute, parte del laboratorio di ricerca e parte sistema di allerta precoce, ha pubblicato un'agenda di ricerca che si concentra su quattro ambiti principali:
- Diffusione economica: impatto sull'occupazione, produttività e distribuzione dei benefici.
- Minacce e resilienza: rischi cyber, biologici e di sorveglianza.
- Sistemi AI nel mondo reale: agenti autonomi e governance.
- Ricerca e sviluppo guidati dall'IA: il tema dell'auto-miglioramento ricorsivo.
L'obiettivo dichiarato è pubblicare informazioni dettagliate su come l'uso di nuovi strumenti di IA stia accelerando il lavoro di Anthropic, nonché sulle implicazioni di un possibile auto-miglioramento ricorsivo dei sistemi.
Un laboratorio di frontiera si impegna a essere trasparente
Anthropic si impegna a essere trasparente con il pubblico qualora l'IA inizi a costruire se stessa. «Noi e gli altri laboratori stiamo cercando di utilizzare questa tecnologia per fare del bene nel mondo», ha dichiarato Clark. «Per spingere avanti settori come la biologia, la medicina o l'energia pulita».
La domanda che emerge è: se l'IA inizierà a costruire se stessa, avremo ancora bisogno delle aziende che la sviluppano? Secondo Clark, il ruolo delle società di intelligenza artificiale rimarrà cruciale per indirizzare questa tecnologia verso obiettivi benefici per l'umanità.