L’intelligenza artificiale, considerata la più grande rivoluzione tecnologica degli ultimi decenni, fatica a conquistare il favore del pubblico statunitense. Nonostante la maggioranza riconosca la sua importanza, i recenti sondaggi del Pew Research Center rivelano una diffusa preoccupazione, soprattutto per gli effetti sulla creatività e sulle relazioni umane.
Anche i dati di Quinnipiac confermano un calo dell’entusiasmo, nonostante l’aumento dell’uso quotidiano della tecnologia. L’IA viene associata a rischi come la perdita di posti di lavoro, frodi, consigli fuorvianti, consumo energetico eccessivo e perfino scenari apocalittici, fino alla possibile estinzione dell’umanità. Un sondaggio NBC di marzo ha rivelato che il 57% degli intervistati ritiene che i rischi superino i benefici.
Tra le cause di questa diffidenza c’è anche il modo in cui i leader delle principali aziende di IA comunicano la tecnologia. Recentemente, Anthropic, gigante del settore, ha limitato l’accesso al nuovo strumento di cybersicurezza Mythos, definendolo troppo potente per un rilascio su larga scala, con il rischio di finire nelle mani di criminali. Sam Altman, CEO di OpenAI, ha ironizzato definendo la mossa «marketing basato sulla paura». Eppure, non molto tempo dopo, anche OpenAI ha lanciato un proprio strumento di sicurezza, restringendone l’accesso.
Questo atteggiamento sembra essere una costante nel settore: le aziende di IA sembrano voler ricordare ai clienti, ad ogni nuovo prodotto, quanto la tecnologia possa essere pericolosa. Se da un lato questo fa parte del ciclo di hype, dall’altro solleva dubbi sulla strategia di branding. Forse la crescente diffidenza del pubblico verso l’IA suggerisce che l’insistenza dei CEO nel sottolineare i rischi non sia la scelta più vincente. L’attacco con una Molotov alla casa di Altman non fa che rafforzare questa impressione.
Questa tendenza al pessimismo non è nuova né isolata. Quando OpenAI ha presentato GPT-4 nel marzo 2023, ha pubblicato un rapporto tecnico che, accanto ai traguardi raggiunti, includeva una sezione dedicata ai possibili usi illeciti, come la creazione di bombe o la sintesi di sostanze chimiche pericolose. Poco dopo, centinaia di ricercatori e dirigenti del settore, tra cui esponenti di Anthropic, Google DeepMind e OpenAI, hanno firmato una lettera aperta in cui si avvertiva che l’IA rappresentava un rischio di estinzione paragonabile a quello nucleare.
Molti esponenti del settore hanno più volte invocato una regolamentazione governativa. Come ricorda la battaglia legale tra Elon Musk e OpenAI, l’azienda era nata come organizzazione no-profit proprio perché la tecnologia veniva percepita come troppo pericolosa per essere gestita esclusivamente con logiche di profitto a breve termine.
È evidente che le aziende non devono minimizzare i rischi dei loro prodotti, ma a un certo punto sorge spontanea una domanda: i responsabili marketing stanno lasciando che la paura e il catastrofismo definiscano l’identità dei loro marchi? Durante il Super Bowl di quest’anno, sono state trasmesse numerose pubblicità sull’IA, ma molte di esse si sono concentrate su promesse troppo generiche («Puoi semplicemente costruire cose»), senza lasciare un impatto duraturo. Nel frattempo, a livello quotidiano, i benefici concreti che vengono comunicati non sembrano