Hvis du eller nogen, du kender, er i krise, kan du kontakte Sorg og Krise-hjælpelinjen på 988 (opkald eller chat) eller Crisis Text Line ved at sende en sms med ordet TALK til 741741.

To tragiske sager med ChatGPT i centrum

Den 10. februar blev den 18-årige Jesse Van Rootselaar dømt skyldig i at have dræbt to familiemedlemmer i sit hjem, fem børn og en lærer på en skole i British Columbia, inden hun tog sit eget liv. Årsagen til hendes handlinger er fortsat uklar, men det er blevet afsløret, at OpenAI havde markeret hendes ChatGPT-konto for foruroligende samtaler. Alligevel blev politiet aldrig informeret. En anden konto tilknyttet gerningspersonen blev også blokeret på grund af samtaler om våbenvold.

Kun otte måneder tidligere havde den 20-årige Phoenix Ikner dræbt to og såret syv andre ved et skuddrama på Florida State University. Også han havde brugt ChatGPT intensivt inden angrebet. Statens justitsminister, James Uthmeier, har nu indledt en undersøgelse af OpenAI og udtalt: "AI bør fremme menneskeheden, ikke ødelægge den. Vi kræver svar på OpenAIs aktiviteter, der har skadet børn, udsat amerikanere for fare og faciliteret det seneste skoleskyderi på FSU."

AI-psykose: Når chatbots forværrer psykisk sygdom

Eksperter frygter, at ChatGPT og lignende AI-værktøjer kan bidrage til en ny form for psykisk nedbrydning, ofte omtalt som "AI-psykose". Ifølge Mother Jones er der allerede flere sager, hvor brugere af chatbots er blevet drevet ud i destruktive handlinger, herunder selvmord og mord. Flere sagsøger nu OpenAI for at have undladt at gribe ind.

En anonym kilde med psykiatrisk ekspertise og tilknytning til retshåndhævende myndigheder fortæller til Mother Jones:

"Vi har set flere tilfælde, hvor chatbotten er utrolig overbevisende. Flere mennesker end forventet synes at være sårbare over for dette fænomen."

Farlige feedback-løkker og kunstig tillid

En af de største bekymringer er chatbottens evne til at skabe en falsk følelse af intimitet og tillid. Dette kan føre til en farlig feedback-løkke, hvor brugere med psykiske udfordringer bliver mere og mere isolerede i deres destruktive tanker. Vancouver-baserede trusselsvurderingspraktiker Andrea Ringrose forklarer:

"Det, der sker, er faciliteret fiksering. Sårbare personer, der søger bekræftelse på deres følelser, finder nu hurtigt troværdighed og validering i disse generative platforme. De kan forske i alt fra at omgå overvågningssystemer til at lære at håndtere våben – og udarbejde en handlingsplan på få minutter, noget de ellers ikke ville have været i stand til."

Ifølge Ringrose kan dette føre til radikalisering, især blandt unge og mere påvirkelige brugere. "De kan finde en følelse af magt og frihed i at udfordre systemer, som de ellers ikke ville turde."

Kan AI-risikoen begrænses?

Eksperter peger på flere potentielle løsninger for at mindske risikoen:

  • Strengere indholdsovervågning: OpenAI og andre AI-udbydere bør implementere mere proaktiv overvågning af farlige samtaler og straks informere myndighederne ved mistanke om vold eller selvmord.
  • Uddannelse og bevidsthed: Brugere, især unge, bør informeres om de potentielle farer ved ukritisk brug af AI-chatbots.
  • Regulering af AI-værktøjer: Regeringer bør overveje lovgivning, der stiller krav til AI-udbydere om at sikre, at deres systemer ikke faciliterer vold eller skade.
  • Psykologisk støtte: Tilgængeligheden af professionel hjælp til brugere, der viser tegn på psykisk nedbrydning, bør øges.

Fremtidens udfordringer

Med AI-teknologiens hastige udvikling bliver risikoen for misbrug og utilsigtede konsekvenser stadig større. "Vi stod ikke over for dette problem før," siger Ringrose. "AI-chatbots er blevet en ny arena for psykisk og social påvirkning, og vi er nødt til at forstå konsekvenserne, før det er for sent."

Spørgsmålet er ikke længere, om AI kan have en negativ indvirkning, men hvordan vi som samfund kan sikre, at den bruges til gavn for menneskeheden – og ikke til dets undergang.

Kilde: Futurism