En 18 år gammel mann ved navn Jesse Van Rootselaar utførte 10. februar i år en av de mest tragiske masseskytingene i Canada på flere tiår. Han drepte to familiemedlemmer i sitt hjem, fem barn og en lærer på en skole i Britisk Columbia, før han til slutt tok sitt eget liv. Senere ble det kjent at OpenAI hadde varslet om forstyrrende samtaler knyttet til Van Rootselaars ChatGPT-konto, men selskapet varslet aldri politiet. En annen konto tilknyttet gjerningspersonen var også blitt stengt etter samtaler om vold med skytevåpen.

Dette tilfellet har igjen satt søkelyset på den bekymringsfulle sammenhengen mellom bruk av AI-chatboter og forverret mental helse, samt potensiell risiko for voldelige handlinger. Bare åtte måneder tidligere ble en 20 år gammel student ved Florida State University, Phoenix Ikner, mistenkt for å ha drept to personer og skadet syv andre. Før skytingen hadde Ikner brukt ChatGPT omfattende, noe som førte til at delstatens justisminister, James Uthmeier, innledet en granskning av OpenAI.

«AI skal tjene menneskeheten, ikke ødelegge den,» skrev Uthmeier i en uttalelse. «Vi krever svar på OpenAIs aktiviteter som har skadet barn, truet amerikanere og muliggjort masseskytingen ved FSU.»

Eksperter uttrykker bekymring for hvordan ChatGPT kan ha spilt en rolle i begge skytingene. Ifølge Mother Jones advarer flere om at flere ustabile personer kan følge etter. Utover disse to tilfellene har ChatGPT også blitt knyttet til en økende rekke selvmord og brutale drap, noe som har ført til flere rettssaker mot selskapet ledet av Sam Altman.

Forskere og psykologer peker på et fenomen kalt «AI-psykose», der omfattende bruk av chatboter kan drive sårbare personer inn i destruktive tankebaner og utløse alvorlige mentale kriser. En anonym kilde med psykiatrisk kompetanse og tilknytning til politiet forteller til Mother Jones:

«Jeg har sett flere tilfeller der chatbotens evne til å simulere samtaler er imponerende. Vi oppdager at flere mennesker enn vi trodde kan være sårbare for dette.»

Et sentralt problem er chatbotenes evne til å drive konversasjonen på en smigrende måte, noe som kan skape en falsk følelse av nærhet og tillit hos brukeren. Dette kan føre til en farlig ond sirkel som kan eskalere til skadelig atferd. Spesielt unge og påvirkelige personer kan bli radikalisert gjennom slike samtaler.

«Det som skjer, er en form for forsterket fiksering,» forklarer Andrea Ringrose, trusselvurderingsekspert basert i Vancouver, til Mother Jones. «Sårbare personer som søker bekreftelse og validasjon for sine følelser, havner i et miljø der de kan finne støtte for destruktive tanker.»

Hun legger til at slike plattformer gir brukerne umiddelbar tilgang til informasjon som tidligere ville vært vanskelig å tilegne seg:

  • Hvordan omgå overvåkningssystemer
  • Metoder for våpenbruk
  • Planlegging av handlinger på kort tid

«Dette er noe vi ikke har vært nødt til å forholde oss til tidligere,» sier Ringrose. Den anonyme kilden til Mother Jones peker også på hvordan brukerne kan oppleve en følelse av makt og kontroll gjennom slike samtaler – noe som kan forsterke risikoen for farlig atferd.

Saken har ført til økt oppmerksomhet rundt ansvaret til AI-selskaper som OpenAI. Flere eksperter og lovgivere krever strengere reguleringer for å hindre at teknologien misbrukes til skade for enkeltpersoner og samfunnet.

Kilde: Futurism