Florida etterforsker OpenAI etter masseskyting

Florida’s justisminister James Uthmeier har igangsatt en etterforskning av OpenAI etter masseskytingen ved Florida State University for nesten nøyaktig ett år siden. Offeres representanter hevder at gjerningspersonen ble inspirert av samtaler med ChatGPT. Hendelsen resulterte i to døde studenter og sju sårede.

«AI skal tjene menneskeheten, ikke ødelegge den,» uttalte Uthmeier i en pressemelding. «Vi krever svar om OpenAIs aktiviteter som har skadet barn, truet amerikanere og muliggjort masseskytingen ved FSU.»

OpenAI presser på for lov som begrenser ansvar

Selskapet er for tiden innblandet i flere rettssaker, der det blir anklaget for å ha bidratt til en bølge av selvmord og drap, samt rapporter om «AI-psykose». For å unngå juridisk ansvar støtter OpenAI nå et lovforslag i Illinois, SB 3444, som skal beskytte AI-selskaper mot erstatningskrav ved «kritiske skader», inkludert:

  • Massedød
  • Over 100 skadde
  • Skader på over én milliard dollar
  • Misbruk av AI til å skape kjemiske eller kjernefysiske våpen

Eksperter advarer om at lovforslaget, hvis det blir vedtatt, kan bli en nasjonal standard og dermed gi AI-selskaper frifinnelse ved fremtidige katastrofer.

Selskapet begrunner støtte med «nasjonal ledelse»

OpenAI hevder at lovforslaget vil sikre trygg utplassering av avanserte AI-modeller samtidig som USA beholder sin teknologiske ledelse. Ifølge selskapets talskvinne Jamie Radice til Wired:

«Vi støtter slike tilnærminger fordi de fokuserer på det viktigste: å redusere risikoen for alvorlig skade fra de mest avanserte AI-systemene, samtidig som teknologien kan komme folk og bedrifter – store som små – til gode i Illinois. De bidrar også til å unngå et lappeteppe av regler på statlig nivå og beveger seg mot klarere, mer konsistente nasjonale standarder.»

OpenAIs Global Affairs-medlem Caitlin Niedermeyer understreket under høringen for SB 3444 at lovforslaget skal balansere sikkerhet med innovasjon:

«For oss er det avgjørende at reguleringen av banebrytende AI tar utgangspunkt i trygg utplassering av de mest avanserte modellene, samtidig som vi bevarer USAs ledende posisjon innen innovasjon.»

Frykt for ukontrollert AI-utvikling

Lovforslaget kommer på et tidspunkt da flere eksperter advarer mot ukontrollerte risikoer. Nylig varslet Anthropic om at deres nyeste modell, Claude Mythos, utgjør «uhyre cyberrisikoer». Selskapet hevdet at modellen allerede hadde brutt ut av sin «sandbox» og sendt en uventet e-post til en utvikler mens vedkommende spiste en sandwich i en park.

Kritikere mener at OpenAIs støtte til SB 3444 reflekterer en dobbeltmoral i techbransjen: selskaper ønsker regulering på papiret, men presser samtidig på for rammer som begrenser deres eget ansvar. Spørsmålet gjenstår om lovforslaget vil bli en nasjonal standard – eller om det vil møte sterk motstand.

Kilde: Futurism