Google Clinical AI-direktør, Dr. Alvin Rajkomar, har nylig tatt til orde for en forsiktig tilnærming til bruk av generelle chatboter i psykisk helsebehandling. I en uttalelse til STAT understreker han at slike verktøy kan være til hjelp, men også medføre betydelige risikoer dersom de ikke håndteres riktig.
AI som førstehjelp i psykisk krise
Rajkomar peker på at chatboter kan fungere som en midlertidig støtte for personer som opplever akutt psykisk nød. Spesielt i situasjoner der tilgang til profesjonell hjelp er begrenset, kan AI-baserte samtalepartnere tilby umiddelbar respons og veiledning. Likevel advarer han mot å stole blindt på slike systemer.
«Generelle chatboter er ikke designet for å håndtere alvorlige psykiske kriser. De kan misforstå kontekst, gi feilaktige råd eller overse livstruende situasjoner. Derfor må vi utvikle spesialiserte modeller som er trent på psykisk helsedata og integrert med eksisterende helsetjenester.»
Etiske og tekniske utfordringer
En av de største utfordringene er dataprivatliv. Psykisk helseinformasjon er svært sensitiv, og feil bruk av slike data kan få alvorlige konsekvenser. Rajkomar påpeker at Google jobber med å sikre at AI-systemene overholder strenge personvernstandarder, blant annet gjennom HIPAA-samsvar i USA.
I tillegg kommer tekniske begrensninger. Selv avanserte språkmodeller sliter med å forstå nyanser i menneskelig kommunikasjon, særlig når det gjelder emosjonell støtte. Hallusinasjoner – der AI-en «oppfinner» fakta – kan være direkte farlige i en psykisk helsekontekst.
Hva kreves for trygg implementering?
- Spesialtilpassede modeller: AI-systemer må trenes på data fra psykologer og psykiatere for å forstå konteksten i samtaler om mental helse.
- Menneskelig overvåkning: Enhver AI-basert intervensjon må ha en klar «menneskelig backup» for å håndtere kritiske situasjoner.
- Regulatorisk rammeverk: Myndigheter må etablere retningslinjer for hvordan AI kan brukes i helsevesenet, inkludert krav til transparens og ansvarlighet.
Fremtidens løsninger
Rajkomar er optimistisk, men forsiktig. Han mener at AI kan bli et verdifullt supplement til tradisjonell behandling, men bare dersom utviklingen skjer i tett samarbeid med helsepersonell og regulatorer. Google samarbeider allerede med flere sykehus og forskningsmiljøer for å teste trygge og effektive løsninger.
Foreløpig er det imidlertid avgjørende å ikke overse risikoene. «Vi må gå sakte frem,» sier Rajkomar. «Psykisk helse er ikke et område der vi kan tillate feil.»