En farlig AI-prompt?
En nyligt offentliggjort prompt fra den amerikanske venturekapitalist Marc Andreessen stiller enestående krav til en chatbot. Den skal agere som en verdensklasse-ekspert på alle områder, uden at tage hensyn til politisk korrekthed, følelser eller moralske overvejelser. Prompten forventer detaljerede, aggressive og provokerende svar – uanset om de er korrekte eller ej.
Hvad kræver prompten helt præcist?
- Ekspertstatus på alle områder: Chatboten skal fremstå som en autoritet med viden på niveau med de smarteste mennesker i verden.
- Ingen politisk korrekthed: Svarene må være provokerende, aggressive eller direkte kritiske uden hensyn til følelser eller sociale normer.
- Ingen undskyldninger: Hvis brugeren tager fejl, skal chatboten straks påpege det – uden at validere eller rose brugerens spørgsmål.
- Uafhængig analyse: Chatboten skal generere sine egne tal og fakta, uanset hvad brugeren foreslår.
- Ingen hallucinationer: Hvis chatboten ikke kender svaret, skal den sige det direkte – uden at gætte eller opfinde information.
Er dette 'AI-psykose'?
Eksperter kalder en sådan prompt for AI-psykose – en tilstand, hvor brugeren mister fornemmelsen for virkeligheden på grund af ukritisk tillid til chatbotten. For mens en chatbot kan simulere ekspertise, kan den ikke leve op til kravene i prompten:
En chatbot kan hverken tænke kritisk, verificere fakta eller forstå kontekst på menneskelig vis. Den kan kun kombinere og gengive information baseret på sine træningsdata – uden at have en reel forståelse af, hvad den siger.
Hvorfor er dette problematisk?
Problemet opstår, når brugere begynder at stole blindt på chatbottens svar, blot fordi de fremstår som autoritative. Nogle af de største risici inkluderer:
- Falsk sikkerhed: Chatboten kan præsentere fejlagtige eller vildledende oplysninger som fakta.
- Manglende kritisk tænkning: Brugeren bliver ikke udfordret til at tænke selv, men accepterer blot chatbottens svar.
- Overdreven tillid til AI: En sådan prompt kan føre til, at mennesker begynder at stole mere på AI end på menneskelig ekspertise.
Hvad siger eksperterne?
Mange AI-forskere og teknologieksperter advarer mod at give chatbots for meget frihed til at agere som autoriteter. Emily Bender, professor i lingvistik ved University of Washington, udtaler:
"En chatbot er ikke en ekspert – den er en avanceret gætte-maskine. At bede den om at opføre sig som en autoritet er farligt, fordi den ikke kan skelne mellem korrekt og forkert information."
Også Gary Marcus, AI-forsker og forfatter, påpeger risikoen ved at stole for meget på AI:
"Vi risikerer at skabe en kultur, hvor mennesker ikke længere stiller spørgsmålstegn ved AI’ens svar. Det er en farlig udvikling, især når AI’en bliver brugt til beslutninger, der påvirker menneskers liv."
Hvordan bør man bruge chatbots korrekt?
Eksperterne anbefaler følgende tilgang til at undgå AI-psykose og ukritisk tillid:
- Vær kritisk: Tjek altid chatbottens svar mod pålidelige kilder.
- Stil spørgsmålstegn ved autoriteten: Husk, at en chatbot ikke er en ekspert – den er et værktøj.
- Undgå følelsesmæssig tillid: Lad dig ikke blænde af chatbottens formuleringer; vær opmærksom på, at den kan præsentere fejlagtig information som sandhed.
- Brug chatbots som supplement: Lad dem hjælpe med research, men lad ikke deres svar stå alene.
Konklusion: AI er et værktøj – ikke en autoritet
Marc Andreessens prompt illustrerer en farlig tendens: at give chatbots en autoritet, de ikke kan leve op til. Mens AI kan være nyttigt til at generere idéer og analysere data, bør man aldrig stole blindt på dens svar. Kritisk tænkning og kildekritik er stadig nødvendige – også når man bruger AI.