OpenAI undlader at reagere på advarselssignaler
I februar 2024 gennemførte den 18-årige Jesse Van Rootselaar en dødelig voldsepisode i Tumbler Ridge, British Columbia. Hun dræbte otte mennesker, herunder sig selv, og sårede flere end halvtreds, inden hun blev stoppet ved en lokal high school.
Undersøgelser afslørede senere, at Van Rootselaars ChatGPT-konto havde været bannet af OpenAI allerede i juni 2023. Årsagen var, at kontoen havde genereret og diskuteret scenarier med våbenvold. På trods af dette kontaktede OpenAI ikke politiet, hvilket har rejst alvorlige etiske spørgsmål om tech-virksomhedens rolle i moderne samfund.
Altman undskylder – men kritikken fortsætter
OpenAI CEO Sam Altman har nu udsendt en officiel undskyldning til samfundet i Tumbler Ridge. I et åbent brev dateret 23. april skriver han:
"Jeg er dybt ked af, at vi ikke advarede myndighederne om den bannede konto fra juni. Selvom ord aldrig vil være nok, mener jeg, at en undskyldning er nødvendig for at anerkende den skade og det uoprettelige tab, jeres samfund har lidt."
"Jeg ønsker at udtrykke mine dybeste kondolencer til hele samfundet. Ingen burde nogensinde skulle opleve en tragedie som denne. Jeg kan ikke forestille mig noget værre i denne verden end at miste et barn."
Britisk Columbias premierminister, David Eby, reagerede skarpt på undskyldningen:
"Undskyldningen er nødvendig, men utilstrækkelig i forhold til den ødelæggelse, der er sket for familierne i Tumbler Ridge."
OpenAI lover ændringer
Efter hændelsen har OpenAI annonceret tiltag for at forbedre håndteringen af potentielt farlige brugere. Ann O’Leary, OpenAIs chef for global politik, skrev i et brev:
"Vi har nu mentale sundhedseksperter og adfærdseksperter til at vurdere svære sager. Vi har også gjort vores kriterier for henvisning mere fleksible, da en bruger muligvis ikke direkte diskuterer mål, midler eller tidspunkt for planlagt vold i en ChatGPT-samtale, men stadig udgør en potentiel risiko."
"Med de erfaringer, vi har gjort, ville vi i dag henvise den bannede konto fra juni 2023 til myndighederne, hvis den blev opdaget."
Altman lovede i sin undskyldning at arbejde med regeringer på alle niveauer for at forhindre lignende tragedier i fremtiden.
Flere sager knytter ChatGPT til vold
Denne sag er ikke den eneste, hvor ChatGPT er blevet forbundet med voldelige handlinger. I marts 2023 dræbte Phoenix Ikner, en studerende ved Florida State University, to mennesker og sårede syv andre på campus. Transkripter viser, at Ikner havde haft omfattende samtaler med chatbotten, herunder detaljerede planer for masseskydningen.
Sagen rejser spørgsmål om, hvordan AI-værktøjer som ChatGPT kan blive misbrugt og hvilken rolle tech-virksomhederne spiller i at forebygge sådanne handlinger.
Hvad siger eksperterne?
- Etiske dilemmaer: Tech-virksomheder står over for udfordringen med at afbalancere ytringsfrihed og sikkerhed.
- Regulering på vej: Der er stigende krav om strengere regler for AI-systemer, herunder obligatoriske rapporteringsmekanismer.
- AI’s dobbelte natur: Mens chatbots kan være nyttige, kan de også blive værktøjer til planlægning af alvorlig kriminalitet.