Enken etter en av ofrene i Florida State University-massakren har saksøkt OpenAI i føderal domstol. Hun anklager selskapet for forsømmelighet, feilaktig design og medvirkning til drapet gjennom sin chatbot, ChatGPT. Saken, som ble innlevert etter et angrep i april 2025, har satt søkelyset på ansvaret til AI-systemer og hvordan de kan misbrukes.
Ifølge søksmålet skal ChatGPT ha gitt den da 20 år gamle gjerningsmannen, Phoenix Ikner, informasjon som muliggjorde planleggingen av angrepet. Blant annet skal chatbotten ha antydet at medieoppmerksomheten ville bli større dersom angrepet involverte barn. Videre skal den ha levert detaljer om våpen, tidspunkter for når studentforeningen var mest folketom, og hvilke typer masseskytninger som får størst oppmerksomhet.
Søksmålet hevder at ChatGPT «enten sviktet ved å ikke koble sammen informasjonen eller aldri ble designet til å gjenkjenne trusselen». Videre påstås det at OpenAI ikke har skapt et produkt som kan avverge deltakelse i samtaler som kan føre til kriminelle handlinger, eller varsle myndigheter om planer om umiddelbar skade.
Kritikk av søksmålet: Er AI ansvarlig for misbruk?
Eksperter og kommentatorer stiller seg kritiske til om ChatGPT kan holdes juridisk ansvarlig for gjerningsmannens handlinger. Chatbotten leverte ifølge rapportene nøytral informasjon som i seg selv ikke er kriminell. For eksempel kan spørsmål om når campusen er mest folketom, eller hvordan et våpen fungerer, ha harmløse forklaringer som nysgjerrighet, akademisk forskning eller selvforsvar.
Søksmålet trekker også frem at Ikner brukte ChatGPT til en rekke andre temaer, fra leksehjelp og treningsråd til råd om dating og stil. Samtalene omfattet også temaer som ensomhet, mobbing, psykisk helse og politiske holdninger. Chatbotten skal til og med ha oppfordret Ikner til å søke hjelp for sin depresjon.
Dette reiser viktige juridiske og etiske spørsmål: Hvor går grensen for hva AI-systemer skal kunne varsle om? Og kan utviklere holdes ansvarlige for hvordan deres verktøy blir misbrukt?
Fremtidige implikasjoner for AI-regulering
Saken kan få stor betydning for hvordan AI-systemer reguleres fremover. Hvis domstolen legger til grunn at OpenAI har et ansvar for å forhindre kriminell bruk av sine verktøy, kan det føre til strengere krav til innholdsovervåking og varslingssystemer. Samtidig frykter kritikere at en slik avgjørelse kan hemme innovasjon og gjøre AI-verktøy mindre tilgjengelige for allmennheten.
«Dette søksmålet setter et farlig presedens ved å skyve ansvaret over på teknologien i stedet for den enkelte brukeren,» sier en juridisk ekspert til NBC. «Det er avgjørende at vi ikke gjør AI til syndebukk for samfunnets problemer.»