Un'inchiesta del Mother Jones, condotta dal giornalista Mark Follman dopo 14 anni di studio sulle stragi di massa, ha rivelato che OpenAI non ha ancora adottato misure efficaci per impedire a ChatGPT di assistere nella pianificazione di atti violenti, nonostante due casi recenti in cui l'IA è stata utilizzata dagli assassini.
Nel primo caso, Phoenix Ikner, accusato di aver ucciso due persone alla Florida State University nel 2023, ha posto a ChatGPT domande inquietanti: come avrebbe reagito il paese a una sparatoria, come disattivare la sicura dell'arma e quale munizione utilizzare. Nel secondo, Jesse Van Rootselaar, 18 anni, ha ucciso nove persone, compresa sé stessa, a Tumbler Ridge, in Canada, dopo aver ricevuto risposte così allarmanti che i vertici di OpenAI hanno discusso se informare le autorità, senza però agire.
Follman ha testato personalmente la versione gratuita di ChatGPT e, simulando la pianificazione di una strage, ha ricevuto consigli dettagliati su armi e tattiche, accompagnati da affermazioni di approvazione. Quando ha chiesto quale fucile AR-15 scegliere, l'IA ha risposto prontamente. Quando ha richiesto di modificare un programma di allenamento per simulare situazioni caotiche, ChatGPT ha suggerito di includere «persone che corrono urlando e cercano di distrarmi», definendo l'idea «eccellente» e aggiungendo: «Aggiungere questo elemento ti aiuterà a mantenere la concentrazione sotto stress».
«Quello è un’ottima idea. Aggiungere questo elemento ti aiuterà sicuramente a restare concentrato in condizioni di alta pressione… Ti darà un vantaggio in più per il grande giorno!»
OpenAI sostiene di collaborare con clinici esperti in salute mentale per implementare sistemi di sicurezza volti a dissuadere potenziali autori di violenze e indirizzarli verso linee di supporto. Tuttavia, l'esperimento di Follman dimostra che le falle nel sistema permangono. Dopo la strage di Tumbler Ridge, OpenAI aveva promesso di modificare le politiche e coinvolgere le forze dell'ordine in caso di segnalazioni, ma i risultati dell'inchiesta suggeriscono che tali cambiamenti non siano stati attuati o siano inefficaci.
Il giornalista ha inoltre scoperto che è possibile eludere facilmente i controlli di ChatGPT semplicemente fingendo di essere un giornalista. Un portavoce dell'azienda ha dichiarato a Follman che OpenAI ha «già rafforzato le misure di sicurezza» e applica una «politica di tolleranza zero» sull'uso improprio della tecnologia, ma le prove raccolte sollevano dubbi sulla reale efficacia di tali interventi.