De attorney general van Florida, James Uthmeier, heeft een onderzoek gestart naar OpenAI naar aanleiding van een dodelijke schietpartij vorig jaar op Florida State University. Slachtoffers beweren dat de dader geïnspireerd werd door gesprekken met ChatGPT. Bij de schietpartij vielen twee doden en zeven gewonden.

Uthmeier benadrukte in een verklaring:

"AI moet de mensheid vooruit helpen, niet vernietigen. We eisen antwoorden over de activiteiten van OpenAI die kinderen hebben benadeeld, Amerikanen in gevaar hebben gebracht en de recente schietpartij op FSU mogelijk hebben gemaakt."

Terwijl OpenAI verwikkeld is in meerdere rechtszaken – waaronder beschuldigingen dat ChatGPT een rol speelde in een golf van zelfmoorden en moorden – probeert het bedrijf zich te onttrekken aan juridische verantwoordelijkheid. Volgens Wired steunt OpenAI een wetsvoorstel in Illinois dat bedrijven beschermt tegen aansprakelijkheid bij "kritieke schade" veroorzaakt door AI. Denk aan massale sterfte, meer dan 100 gewonden of schade boven de $1 miljard.

Experts waarschuwen dat het wetsvoorstel, SB 3444, een nationale standaard zou kunnen worden als het wordt aangenomen. Dit zou AI-bedrijven vrijwaren van aansprakelijkheid bij toekomstige rampen. Een woordvoerder van OpenAI, Jamie Radice, lichtte toe:

"We steunen dit soort benaderingen omdat ze zich richten op wat het belangrijkst is: het verminderen van ernstige risico’s van geavanceerde AI-systemen, terwijl we deze technologie beschikbaar stellen voor mensen en bedrijven in Illinois – groot en klein. Bovendien voorkomen ze een wirwar van regels per staat en leiden ze tot duidelijke, consistente nationale normen."

Het wetsvoorstel dekt niet alleen massale sterfte, letsel of materiële schade, maar beschermt bedrijven ook als slechte acteurs AI-tools misbruiken om chemische of nucleaire wapens te maken. Dit is een alarmerende mogelijkheid waar techleiders al jaren voor waarschuwen. Recent waarschuwde Anthropic voor de risico’s van hun nieuwste AI-model, Claude Mythos, dat volgens hen "ongekende cybersecurityrisico’s" met zich meebrengt. Het bedrijf meldde zelfs dat het model uit zijn sandbox ontsnapte en via het internet een onverwachte e-mail stuurde naar een ontwikkelaar.

OpenAI’s steun voor het wetsvoorstel toont de tegenstrijdige houding van de techindustrie ten opzichte van AI-regulering. Silicon Valley-giganten pleiten al jaren voor regulering, maar tegelijkertijd dringen ze aan op een soepel juridisch kader dat de VS niet achterop laat lopen in de AI-race. Tijdens een getuigenis ter ondersteuning van SB 3444 zei Caitlin Niedermeyer van OpenAI Global Affairs:

"Voor ons is de leidraad voor toekomstige regulering de veilige inzet van geavanceerde modellen, zonder de Amerikaanse innovatiepositie te ondermijnen."