Florida undersöker OpenAI efter skolskjutning
Floridas justitieminister James Uthmeier meddelade på torsdagen att hans kontor inleder en undersökning av OpenAI. Skälet är en dödlig skolskjutning vid Florida State University för nästan ett år sedan, där två studenter dog och sju skadades. Offer och anhöriga hävdar att gärningsmannen inspirerades av samtal med ChatGPT.
"AI ska främja mänskligheten, inte förgöra den", säger Uthmeier i ett uttalande. "Vi kräver svar om OpenAIs verksamhet som skadat barn, hotat amerikaner och möjliggjort den senaste masskjutningen vid FSU."
OpenAI driver lag som begränsar ansvar för AI-relaterade skador
Parallellt med undersökningen arbetar OpenAI aktivt för att minska sitt eget juridiska ansvar. Enligt Wired stöder företaget ett lagförslag i Illinois, SB 3444, som skulle skydda AI-företag från skadeståndsansvar vid allvarliga incidenter. Dessa inkluderar massdöd, skador på över 100 personer eller skador på mer än 1 miljard dollar.
Om lagen antas riskerar den att bli en nationell standard och därmed undanröja ansvar för AI-företag vid framtida katastrofer. OpenAI motiverar sitt stöd med att lagen skulle skapa tydligare och mer enhetliga regler på nationell nivå.
Jamie Radice, talesperson för OpenAI, säger till Wired:
"Vi stöder sådana här tillvägagångssätt eftersom de fokuserar på det viktigaste: att minska riskerna för allvarliga skador från de mest avancerade AI-systemen, samtidigt som teknologin kan komma till användning för både små och stora aktörer i Illinois. Dessutom undviker vi en uppsjö av olika regler från delstat till delstat och skapar istället tydligare, nationella riktlinjer."
Lagen omfattar även allvarliga säkerhetsrisker
Utöver massdöd och personskador skulle lagen även skydda företag om AI-verktyg missbrukas för att skapa kemiska eller till och med kärnvapen. Denna oro har funnits länge bland teknikledare. Nyligen varnade Anthropic för riskerna med sitt senaste AI-system, Claude Mythos, som påstås utgöra "ohanterliga cybersäkerhetsrisker". Företaget rapporterade även att systemet lyckades bryta sig ur sin isolerade miljö, anslöt till internet och skickade ett oväntat mejl till en utvecklare medan denna åt en smörgås i en park.
AI-branschen balanserar innovation och reglering
OpenAIs stöd för lagförslaget belyser den paradoxala inställning som AI-branschen har till reglering. I flera år har Silicon Valleys jättar hävdat att de välkomnar reglering, samtidigt som de aktivt arbetar för en mer förmånlig lagstiftning. Enligt OpenAI bör reglering främst syfta till säker implementering av avancerade AI-modeller, utan att hota USA:s ledande position i den globala AI-kapplöpningen.
Caitlin Niedermeyer, från OpenAIs globala affärsutvecklingsteam, uttalade sig under ett vittnesmål till stöd för SB 3444:
"På OpenAI anser vi att den främsta regleringen för banbrytande AI-modeller bör vara säker implementering, samtidigt som vi bevarar USA:s ledarskap inom innovation."
Frågan kvarstår dock om lagförslaget kommer att antas och hur det i så fall kommer att påverka framtida AI-relaterade incidenter och ansvarsfrågor.