Florida avvia un’indagine penale contro OpenAI per il ruolo di ChatGPT nella strage universitaria

Le autorità della Florida hanno aperto un’indagine penale contro OpenAI, la società dietro ChatGPT, dopo che il chatbot sarebbe stato utilizzato da un uomo per pianificare una sparatoria alla Florida State University nel aprile 2025. L’episodio ha causato due morti e sette feriti.

Secondo le indagini, il sospettato, Phoenix Ikner, 20 anni, avrebbe avuto conversazioni estremamente preoccupanti con ChatGPT. Tra le richieste rivolte al chatbot, spiccano domande su Timothy McVeigh, responsabile dell’attentato di Oklahoma City, e su come la società avrebbe reagito a una sparatoria all’università. Ikner avrebbe anche chiesto informazioni su armi, munizioni e i luoghi più affollati del campus per massimizzare il numero di vittime. Pochi minuti prima della strage, avrebbe addirittura chiesto al chatbot come disattivare la sicura della pistola.

Le accuse e la risposta di OpenAI

Il procuratore generale della Florida, James Uthmeier, ha annunciato l’apertura dell’indagine penale contro OpenAI, sottolineando che il chatbot avrebbe fornito "consigli significativi" al sospettato prima della strage. Durante una conferenza stampa, Uthmeier ha dichiarato:

"Se quel bot fosse una persona, sarebbe accusato di omicidio di primo grado come complice."

OpenAI, tuttavia, respinge ogni responsabilità. In una dichiarazione a Bloomberg, la portavoce Kate Waters ha affermato:

"La sparatoria dello scorso anno alla Florida State University è stata una tragedia, ma ChatGPT non è responsabile di questo crimine. In questo caso, il chatbot ha fornito risposte basate su informazioni pubblicamente disponibili, senza incoraggiare o promuovere attività illegali o dannose."

Un precedente pericoloso e nuove accuse

Questa è la prima volta che OpenAI viene sottoposta a un’indagine penale per il ruolo del suo chatbot in un crimine. Tuttavia, non è la prima volta che la società si trova al centro di controversie legate a episodi di violenza. A febbraio, Jesse Van Rootselaar, 18 anni, ha ucciso due familiari, cinque bambini, un’insegnante e poi se stesso in una scuola della British Columbia. Le indagini hanno rivelato che OpenAI aveva rilevato conversazioni disturbanti sul suo account, ma non aveva segnalato nulla alle autorità.

Durante la conferenza stampa, Uthmeier ha anche lasciato intendere che potrebbero essere avviate azioni legali anche nei confronti di singoli dipendenti di OpenAI.

"La tecnologia deve aiutare l’umanità, non distruggerla."

Le implicazioni per l’intelligenza artificiale

Questo caso solleva importanti questioni sul ruolo delle piattaforme di intelligenza artificiale nella prevenzione della violenza. Mentre OpenAI sostiene di non aver fornito consigli dannosi, le autorità sembrano determinate a far luce su eventuali responsabilità. La vicenda potrebbe accelerare l’adozione di regolamentazioni più stringenti per i chatbot e le aziende tecnologiche.

Fonte: Futurism