OpenAI anklages for å ha ignorert advarsler om potensiell skoleskyting
Sju nye rettssaker ble innlevert onsdag i en amerikansk domstol i California, der OpenAI blir beskyldt for å ha unnlatt å handle på interne advarsler om en potensiell skoleskyter. Ifølge søksmålene kunne AI-selskapet ha forhindret en av de dødeligste skoleskytingene i Canadas historie.
Interne eksperter varslet om trussel måneder før angrepet
Mer enn åtte måneder før skoleskytingen ble gjennomført, hadde OpenAIs interne sikkerhetsteam identifisert en ChatGPT-bruker knyttet til gjerningspersonen som en reell trussel for vold med skytevåpen i den virkelige verden. I slike tilfeller forventes det at OpenAI varsler politiet – spesielt siden gjerningspersonen allerede var kjent hos politiet og tidligere hadde fått beslaglagt våpen fra hjemmet sitt.
Likevel valgte OpenAI-ledelsen å overse disse anbefalingene. Ifølge anonyme whistleblowere fortalte de at ledelsen mente brukerens personvern og potensiell stress ved et politivarsel veide tyngre enn risikoen for vold.
OpenAI deaktiverte kontoen – og hjalp til med å gjenopprette tilgangen
I stedet for å varsle myndigheter, deaktiverte OpenAI kontoen. Men kort tid etter fikk gjerningspersonen hjelp til å gjenopprette tilgangen ved å opprette en ny konto med en annen e-postadresse, ifølge rettssakene. Dette tillot vedkommende å fortsette planleggingen av angrepet via ChatGPT.
Krav om erstatning og strengere regulering av AI
De syv søksmålene, som er innlevert på vegne av ofre og etterlatte, krever betydelig erstatning fra OpenAI. De anklager selskapet for grov uaktsomhet og brudd på plikten til å varsle om reelle trusler. Flere eksperter og politikere har allerede reagert på saken og etterlyser strengere regulering av AI-systemer for å forhindre lignende hendelser i fremtiden.
«Dette er en alvorlig påminnelse om at AI-systemer ikke bare er verktøy, men kan ha direkte konsekvenser for folks liv og sikkerhet,» uttalte en anonym kilde til The Wall Street Journal.
Hva skjedde i skoleskytingen?
Skoleskytingen fant sted i april 2023 i Uvalde, Canada, og resulterte i flere dødsfall og alvorlige skader. Gjerningspersonen hadde tidligere vært under politiets observasjon og hadde fått beslaglagt våpen fra hjemmet. Til tross for dette klarte vedkommende å skaffe seg nye våpen og gjennomføre angrepet.
Ifølge rettssakene hadde gjerningspersonen brukt ChatGPT til å planlegge angrepet, og OpenAIs manglende varsling ble sett på som en avgjørende feil som kunne ha forhindret tragedien.
OpenAIs respons og fremtidige tiltak
OpenAI har ennå ikke offentlig kommentert de nye anklagene. Selskapet har tidligere uttalt at de tar sikkerhet og ansvarlig bruk av AI på alvor, men har ikke gitt detaljer om hvordan de vil håndtere denne saken.
Eksperter innen AI-regulering og cybersikkerhet mener at saken kan føre til strengere krav til transparens og varslingsplikt for AI-selskaper. Flere land vurderer nå å innføre nye lover for å sikre at AI-systemer ikke blir misbrukt til planlegging av voldelige handlinger.