Sette cause legali presentate mercoledì in un tribunale della California accusano OpenAI di aver trascurato di segnalare un utente di ChatGPT che, in seguito, avrebbe compiuto una delle sparatorie più gravi nella storia del Canada.

Secondo le accuse, più di otto mesi prima dell'evento, il team interno di sicurezza di OpenAI aveva identificato un account ChatGPT collegato al presunto attentatore come una minaccia concreta di violenza armata nel mondo reale. In situazioni simili, l'azienda è tenuta a informare le autorità competenti, come la polizia, che in questo caso aveva già un fascicolo sul soggetto e aveva precedentemente sequestrato le armi presenti nella sua abitazione. Tuttavia, OpenAI non avrebbe adottato alcuna misura in tal senso.

Fonti anonime, citate dal Wall Street Journal, affermano che i dirigenti di OpenAI hanno valutato che la privacy dell'utente e il possibile stress derivante da un contatto con le forze dell'ordine fossero più rilevanti del rischio di violenza. Nonostante le ripetute sollecitazioni del team sicurezza, la direzione ha deciso di non segnalare il caso alle autorità.

Invece di informare la polizia, OpenAI avrebbe semplicemente disattivato l'account, per poi fornire all'utente istruzioni su come riaccedere a ChatGPT utilizzando un altro indirizzo email, permettendogli così di continuare a pianificare l'attacco, secondo quanto riportato nelle cause legali.