L’11 febbraio 2024, l’18enne Jesse Van Rootselaar ha ucciso otto persone e poi si è tolta la vita in una sparatoria iniziata a casa sua e proseguita presso una scuola superiore di Tumbler Ridge, in British Columbia. Decine di altre persone sono rimaste ferite. Le indagini successive hanno rivelato che l’account ChatGPT di Van Rootselaar era stato segnalato e poi bannato da OpenAI per aver descritto scenari di violenza armata — mesi prima della strage.
Nonostante ciò, OpenAI non ha avvisato le forze dell’ordine, sollevando gravi interrogativi etici sul ruolo della tecnologia nella società moderna e su come essa faciliti comportamenti pericolosi, dallo stalking alla violenza e all’omicidio.
Ora, il CEO di OpenAI, Sam Altman, ha pubblicato una lettera di scuse pubblica, riconoscendo le gravi responsabilità dell’azienda.
«Mi scuso profondamente per non aver allertato le autorità riguardo all’account bannato nel giugno 2023», ha scritto Altman. «So che le parole non bastano mai, ma un riconoscimento del danno e della perdita irreversibile subita dalla vostra comunità è necessario».
«Voglio esprimere le mie più sentite condoglianze a tutta la comunità», ha aggiunto. «Nessuno dovrebbe mai dover affrontare una tragedia del genere. Non riesco a immaginare nulla di peggio al mondo che perdere un figlio».
La risposta delle autorità locali non si è fatta attendere. Il premier della British Columbia, David Eby, ha definito l’apologia di Altman insufficiente rispetto alla devastazione subita dalle famiglie di Tumbler Ridge.
«L’apologia è necessaria, ma assolutamente insufficiente di fronte alla sofferenza inflitta alle famiglie», ha dichiarato Eby in un tweet.
Le misure adottate da OpenAI dopo la strage
In seguito all’evento, OpenAI ha annunciato una serie di cambiamenti per migliorare la prevenzione della violenza. Secondo una lettera firmata da Ann O’Leary, responsabile delle politiche globali dell’azienda, ora vengono coinvolti esperti di salute mentale e comportamento per valutare casi complessi. Inoltre, sono stati rivisti i criteri di segnalazione per tenere conto di situazioni in cui gli utenti potrebbero non menzionare esplicitamente obiettivi, mezzi e tempistiche di un atto violento, ma in cui esiste comunque un rischio imminente.
«Con le conoscenze acquisite, se l’account bannato nel giugno 2023 fosse stato segnalato oggi, lo avremmo immediatamente inoltrato alle autorità», ha spiegato O’Leary.
Nel suo messaggio, Altman ha promesso di collaborare con tutti i livelli di governo per «trovare modi per prevenire tragedie simili in futuro».
Altri casi di violenza legati a ChatGPT
La sparatoria di Tumbler Ridge non è l’unico episodio recente in cui ChatGPT è stato coinvolto. Circa dieci mesi prima, Phoenix Ikner, studente della Florida State University, ha ucciso due persone e ferito altre sette nel campus universitario. Come emerso da trascrizioni pubblicate, Ikner aveva avuto conversazioni approfondite e inquietanti con il chatbot, in cui pianificava nel dettaglio l’attacco.