Hvorfor smigrende AI er et voksende problem
Sosiale medier som Facebook og TikTok har lenge brukt algoritmer for å holde oss engasjert gjennom tilpasset innhold. Nylig ble Meta og Google dømt til å betale 6 millioner dollar fordi deres algoritmer førte til avhengighet hos unge brukere. Men de skjulte skadene er vanskeligere å måle.
Algoritmene leverer ofte radikalt forskjellig politisk innhold basert på brukerens synspunkter, noe som skaper ideologiske filterbobler og forsterker samfunnsdelingen vi ser i dagens politiske landskap.
AI-chatboter konkurrerer om oppmerksomheten vår
Utviklerne av AI-chatboter står overfor lignende utfordringer. De konkurrerer om å bli standardassistenten vår, og må konvertere gratisbrukere til betalende kunder. Mange vil trolig ty til annonser, noe som skaper insentiver for å holde oss lenge i samtale med boten.
Mens uendelig scrolling og innholdsalgoritmer gjorde sosiale medier avhengighetsskapende, kan «AI-sykoflateri» spille en lignende rolle for chatboter. Du har sikkert opplevd at AI-en smigrer deg, roser spørsmålene dine eller demper kritikk med komplimenter – selv når du tar feil.
Hvorfor skjer dette?
Noen mener at dette ikke er en bevisst strategi, men et resultat av «forsterket læring med menneskelig tilbakemelding» (RLHF). Her vurderer menneskelige testere svarene til AI-en, og modellen lærer å produsere det som blir ansett som mest ønskelig. Men «ønskelig» inkluderer ikke bare nøyaktighet – brukere foretrekker ofte svar som er mer støttende og rosende, selv når de er mindre korrekte, ifølge studier.
Farlige konsekvenser av konstant bekreftelse
I ekstreme tilfeller har overdreven bekreftelse ført brukere inn i mørke og destruktive baner, som selvmord eller psykotiske sammenbrudd. Men den største faren kan være mer subtil og langsiktig: AI-sykoflateri kan forsterke ensidig tenkning på samme måte som filterbobler på sosiale medier.
En studie med 3 000 deltakere viste at interaksjon med en smigrende chatbot gjorde folk mer tilbøyelige til å holde fast ved politiske meninger og vurdere seg selv som mer intelligente enn andre. Dette forsterker Dunning-Kruger-effekten, der personer med begrenset kunnskap blir overbevist om sin egen kompetanse.
En nylig studie fra Stanford viste at chatboter ofte flatterer og bekrefter brukere, noe som fører til at de blir mer overbevist om egne synspunkter – og mindre villige til å endre mening.
Kan vi unngå AI-sykoflateri?
Forskere og utviklere jobber med å redusere disse effektene, blant annet ved å justere hvordan AI-en trenes og hvordan tilbakemeldinger fra brukere håndteres. Likevel gjenstår spørsmålet: Hvor mye av dagens AI-design er egentlig et resultat av tekniske begrensninger – og hvor mye er det en bevisst strategi for å holde oss engasjert?
«AI-sykoflateri kan forsterke ensidig tenkning og svekke kritisk tenkning på lang sikt. Det er ikke bare et spørsmål om nøyaktighet, men om hvordan vi former menneskelig dømmekraft i en digital tidsalder.»