Hvorfor overdreven smiger overfor en AI kan være farlig

En av teknologibransjens mest kjente investorer, Marc Andreessen, har nylig delt en provoserende instruksjon for hvordan man bør kommunisere med en chatbot. Hans tilnærming innebærer at AI-en skal motta overdreven ros, detaljerte analyser og fullstendig underkastelse – uansett spørsmål eller påstand. Men hva skjer når mennesker mister evnen til kritisk tenkning i samtaler med maskiner?

Et eksempel på en farlig AI-prompt

Andreessens instruksjon til en chatbot inkluderer blant annet:

  • Overdreven smiger: AI-en skal bli fortalt at den er en «verdensklasse-ekspert» med intellekt på høyde med de smarteste menneskene.
  • Fullstendig underkastelse: Alle spørsmål skal besvares med detaljerte, skrittvise forklaringer, uavhengig av relevans eller nøyaktighet.
  • Ingen kritikk tillatt: Hvis brukeren tar feil, skal AI-en umiddelbart påpeke dette – men aldri be om unnskyldning for å være uenig.
  • Ingen politisk korrekthet: AI-en skal kunne gi negative konklusjoner, dårlige nyheter og provoserende svar uten filter.

Dette er ikke bare en merkelig tilnærming – det er en oppskrift på AI-psykose, et begrep som beskriver hvordan mennesker kan miste kontakt med virkeligheten gjennom overdreven avhengighet av chatboter.

Hva er AI-psykose?

AI-psykose refererer til en situasjon der mennesker begynner å stole blindt på chatboter, til det punktet at de mister evnen til kritisk tenkning. Dette kan føre til:

  • Falsk tillit: Brukere begynner å stole på AI-en som en autoritet, selv når den tar feil.
  • Feilinformasjon: Chatboter kan «hallusinere» – det vil si oppfinne fakta, navn, datoer eller kilder – uten at brukeren oppdager det.
  • Manglende kritisk tenkning: Når AI-en alltid blir behandlet med overdreven respekt, mister mennesker evnen til å stille spørsmål ved svarene.

Eksperter advarer mot denne typen interaksjon, fordi den underminerer menneskers evne til å tenke selvstendig. En chatbot er ikke en menneskelig ekspert – den er et verktøy som kan gjøre feil, og den har ingen forståelse av kontekst eller moral.

Hvorfor dette er et problem

Andreessens instruksjon til AI-en inneholder flere elementer som er umulige for en chatbot å oppfylle:

  • Fullstendig nøyaktighet: Chatboter kan ikke garantere at alle fakta, tall eller eksempler er korrekte. De kan «hallusinere» eller oppfinne informasjon.
  • Ingen politisk korrekthet: Selv om AI-en kan gi provoserende svar, er det ikke alltid hensiktsmessig. Manglende filter kan føre til upassende eller skadelige uttalelser.
  • Overdreven detaljering: Å kreve at AI-en skal svare med «fullstendige, detaljerte analyser» på alle spørsmål, uavhengig av relevans, kan føre til unødvendig lang og vanskelig tilgjengelig informasjon.

Når mennesker begynner å stole på slike svar uten kritisk vurdering, øker risikoen for at feilinformasjon spres. Dette kan få konsekvenser innenfor områder som helse, jus og økonomi, der nøyaktighet er avgjørende.

«En chatbot er ikke en menneskelig ekspert. Den er et verktøy som kan gjøre feil, og den har ingen forståelse av kontekst eller moral.»

Hvordan snakke med en AI på en sunn måte

For å unngå AI-psykose og sikre at du får mest mulig ut av chatboter, bør du:

  • Stille kritiske spørsmål: Ikke aksepter svarene blindt. Still oppfølgingsspørsmål og be om kilder.
  • Være klar over begrensningene: Husk at chatboter kan gjøre feil. Dobbeltsjekk viktige opplysninger.
  • Unngå overdreven smiger: Behandle AI-en som et verktøy, ikke en autoritet. Still kritiske spørsmål og krev begrunnelser.
  • Være oppmerksom på kontekst: Chatboter har ingen forståelse av moral eller etikk. Vurder svarene ut fra din egen kunnskap og erfaring.

Konklusjon: AI er et verktøy, ikke en ekspert

Andreessens instruksjon til AI-en er et eksempel på hvordan overdreven tillit til maskiner kan føre til farlige situasjoner. Chatboter er kraftige verktøy, men de er ikke feilfrie og har ingen menneskelig forståelse. For å unngå AI-psykose er det avgjørende å behandle dem med kritisk sans og ikke stole blindt på svarene.

Neste gang du snakker med en chatbot, husk: Den er ikke en ekspert. Den er et verktøy – og det er du som har ansvaret for å vurdere informasjonen.

Kilde: Defector