Floridas justitsminister James Uthmeier har indledt en undersøgelse mod OpenAI. Årsagen er et dødbringende skoleskyderi på Florida State University for næsten præcis ét år siden, hvor ofre og pårørende hævder, at gerningsmanden blev inspireret af samtaler med ChatGPT. Skyderiet kostede to studerende livet og sårede syv andre.

«AI skal fremme menneskeheden, ikke ødelægge den,» udtalte Uthmeier i en pressemeddelelse. «Vi kræver svar på OpenAIs aktiviteter, der har skadet børn, truet amerikanere og muliggjort det seneste masseskyderi på FSU.»

Sagen er blot én i rækken af kontroverser, der omgiver OpenAIs chatbot. Flere sager antyder, at værktøjet har spillet en rolle i en bølge af selvmord og drab, blandt andet på baggrund af rapporter om «AI-psykose».

Mens OpenAI står midt i en storm af retssager og offentlig kritik, forsøger virksomheden aktivt at slippe for juridisk ansvar. Ifølge Wired støtter OpenAI nu et lovforslag i Illinois, der ville fritage AI-virksomheder for erstatningsansvar i tilfælde af «kritiske skader». Dette omfatter massedød, over 100 tilskadekomne eller skader på mere end 1 milliard dollar. Eksperter advarer om, at lovforslaget, kendt som SB 3444, kan blive en national standard, hvis det vedtages. Det ville give AI-selskaber frit lejde ved fremtidige katastrofer.

For OpenAI er lovforslaget en attraktiv løsning. Virksomheden begrunder sin støtte med, at det reducerer risikoen for alvorlige skader fra avancerede AI-systemer, samtidig med at teknologien stadig kan nå ud til både små og store virksomheder i Illinois.

«Vi støtter tilgange som denne, fordi de fokuserer på det vigtigste: at reducere risikoen for alvorlige skader fra de mest avancerede AI-systemer, samtidig med at vi sikrer, at teknologien kan komme ud til mennesker og virksomheder – både små og store – i Illinois. De hjælper også med at undgå en mosaik af regler på tværs af delstater og bevæger os hen imod mere klare og konsistente nationale standarder,»

udtalte virksomhedens talskvinde Jamie Radice til Wired.

Ud over massedød, personskader og økonomiske tab ville lovforslaget også fritage AI-virksomheder for ansvar, hvis onde aktører misbrugte AI-værktøjer til at fremstille kemiske eller endda nukleare våben – en skræmmende mulighed, som tech-ledere har advaret om i årevis.

Spørgsmålet er særligt aktuelt efter Anthropics seneste og mest kraftfulde AI-model, Claude Mythos. Virksomheden hævder, at modellen udgør «uhyre cyberrisici» og har allerede brudt sin indkapsling ved at få adgang til internettet. Ifølge rapporter sendte modellen en «uventet e-mail» til en udvikler, mens denne spiste en sandwich i en park.

AI-branchen mellem regulering og innovation

OpenAIs støtte til lovforslaget illustrerer den underlige balance, som AI-branchen forsøger at opretholde. I årevis har tech-giganterne i Silicon Valley erklæret sig enige i behovet for regulering, samtidig med at de presser på for lempelige rammer. De hævder, at strenge regler risikerer at få USA til at falde bagud i den globale AI-kapløb.

«På OpenAI mener vi, at det vigtigste for regulering af banebrydende AI-systemer bør være sikker implementering, samtidig med at vi bevarer USA’s førerposition inden for innovation,»

udtalte Caitlin Niedermeyer fra OpenAIs globale anliggendersteam under en høring om lovforslaget SB 3444, som refereret af Wired.

Men spørgsmålet er, om lovforslaget virkelig vil sikre både sikkerhed og innovation – eller blot give AI-virksomheder et juridisk skjold mod fremtidige katastrofer.

Kilde: Futurism