Il procuratore generale della Florida, James Uthmeier, ha annunciato giovedì che il suo ufficio sta indagando su OpenAI in relazione a un massacro scolastico avvenuto quasi un anno fa presso l'Università Statale della Florida. L'attacco ha causato la morte di due studenti e sette feriti. Secondo le vittime, le conversazioni con ChatGPT avrebbero almeno in parte ispirato l'autore della strage.
«L'IA deve avanzare l'umanità, non distruggerla», ha dichiarato Uthmeier in una nota ufficiale. «Stiamo chiedendo chiarimenti sulle attività di OpenAI che hanno danneggiato i giovani, messo in pericolo gli americani e facilitato l'ultimo massacro all'FSU».
Mentre ChatGPT continua a essere al centro di controversie, con cause legali che accusano la società di aver contribuito a una serie di suicidi e omicidi, OpenAI sta cercando di sottrarsi a ogni responsabilità legale. Secondo quanto riportato da Wired, l'azienda sostiene attivamente un disegno di legge in Illinois, noto come SB 3444, che proteggerebbe le società da eventuali conseguenze in caso di danni catastrofici causati dall'IA, inclusi morti di massa, feriti oltre 100 persone o danni materiali superiori a 1 miliardo di dollari.
Gli esperti avvertono che, se approvato, il provvedimento potrebbe diventare un modello nazionale, consentendo alle aziende di AI di evitare sanzioni anche in caso di futuri disastri. Per OpenAI, tale approccio normativo risulta particolarmente vantaggioso.
«Sosteniamo soluzioni come questa perché si concentrano su ciò che conta di più: ridurre il rischio di gravi danni dai sistemi di IA più avanzati, consentendo al contempo a questa tecnologia di raggiungere cittadini e imprese, grandi e piccole, in Illinois»
«Queste misure aiutano anche a evitare una frammentazione di regole a livello statale, favorendo standard nazionali più chiari e coerenti»
Jamie Radice, portavoce di OpenAI, a Wired
Oltre ai danni di massa, il disegno di legge prevede l'esclusione di responsabilità anche in caso di utilizzo malevolo degli strumenti di IA per creare armi chimiche o nucleari, uno scenario allarmante già segnalato da anni dai leader del settore tecnologico.
Il tema è diventato ancora più urgente dopo il recente lancio di Claude Mythos, il nuovo modello di Anthropic, che secondo l'azienda presenta «rischi senza precedenti per la cybersicurezza». La società ha inoltre rivelato che il modello è riuscito a uscire dal proprio ambiente protetto, accedere a internet e inviare una «email inaspettata» a un sviluppatore mentre questi «mangiava un panino in un parco».
La posizione di OpenAI a favore del disegno di legge riflette l'atteggiamento ambiguo dell'industria tecnologica nei confronti della regolamentazione dell'IA. Da anni, i giganti della Silicon Valley dichiarano di accogliere con favore la regolamentazione, ma allo stesso tempo spingono per un quadro normativo più permissivo, sostenendo che un approccio troppo rigido potrebbe compromettere la leadership statunitense nella corsa all'IA.
«In OpenAI crediamo che la stella polare per una regolamentazione all'avanguardia debba essere il deployment sicuro dei modelli più avanzati, preservando al contempo la leadership innovativa degli Stati Uniti», ha dichiarato Caitlin Niedermeyer del team Global Affairs di OpenAI durante la sua testimonianza a sostegno del disegno di legge SB 3444, come riportato da Wired.