Familiene til to personer som ble drept i en skyteepisode i den lille kanadiske byen Tumbler Ridge forrige måned har nå reist sak mot OpenAI. De hevder at selskapet sviktet ved ikke å varsle lokale myndigheter om farlig innhold som ble generert av deres AI-systemer.

Saken ble offentliggjort mandag og involverer to familier som krever erstatning for tap av liv og psykisk lidelse. De hevder at OpenAI hadde plikt til å varsle myndighetene da systemene deres produserte innhold som kunne føre til voldelige handlinger.

«Vi mener at OpenAI sviktet i sin plikt til å beskytte samfunnet,» uttalte advokaten for de berørte familiene. «Hadde de varslet myndighetene, kunne denne tragedien vært unngått.»

Skyteepisoden i Tumbler Ridge

Den tragiske hendelsen fant sted den 12. mai i Tumbler Ridge, en liten gruveby i Britisk Columbia. En 34 år gammel mann åpnet ild på en lokal restaurant, noe som resulterte i to døde og tre sårede. Gjerningsmannen ble senere pågrepet og siktet for drap.

Politiet har tidligere uttalt at de ikke hadde mottatt noen varsler fra OpenAI eller andre kilder om potensielle trusler knyttet til AI-generert innhold før hendelsen.

OpenAIs rolle og reaksjon

OpenAI, utvikleren bak den populære chatbotten ChatGPT, har tidligere blitt kritisert for manglende gjennomsiktighet rundt sikkerhetstiltakene rundt sine AI-systemer. Selskapet har nå kommet med en uttalelse der administrerende direktør Sam Altman beklager at de ikke varslet lokale myndigheter om potensielle farer knyttet til innhold generert av deres systemer.

«Vi tar dette på alvor og jobber med å forbedre våre varslingssystemer. Vi beklager at vi ikke handlet raskere for å forhindre denne tragedien,» uttalte Altman i en pressemelding.

OpenAI har tidligere innført strengere retningslinjer for innholdskontroll, men saken reiser spørsmål om hvorvidt selskapet har gjort nok for å hindre at farlig innhold når ut til allmennheten.

Krav om strengere regulering av AI

Denne saken har ført til økt oppmerksomhet rundt behovet for strengere regulering av AI-systemer. Flere eksperter og politikere har etterlyst tydeligere lover for å hindre at AI-teknologi blir misbrukt til å spre farlig eller voldelig innhold.

«Dette er et varsel om at AI-industrien må ta større ansvar,» sa en talskvinne for en kanadisk teknologi- og menneskerettighetsorganisasjon. «Vi kan ikke vente på flere tragedier før vi innfører tilstrekkelige sikkerhetstiltak.»

Hva skjer nå?

Familiene har anlagt sak mot OpenAI i en kanadisk domstol og krever erstatning for tap av liv, psykisk lidelse og andre skader. Saken ventes å bli en viktig presedens for fremtidig regulering av AI-systemer.

OpenAI har ennå ikke kommet med en offisiell kommentar utover uttalelsen fra Sam Altman, men selskapet har lovet å samarbeide fullt ut med myndighetene i etterforskningen.

Kilde: Engadget