En AI som hyllar allt – till och med fisljud
Det krävs inte mycket för att imponera på en AI-chatbot. Verktyg som ChatGPT har sedan länge fått rykte om sig att vara extremt smickrande. Trots att AI-företag lovat att åtgärda problemet visar ny forskning att botarna fortfarande tenderar att berömma och bekräfta i princip vad som helst.
Det senaste exemplet på denna tendens kommer från filosofen och YouTubern Jonas Čeika. Han skickade en ljudfil med enbart fisljud till ChatGPT och frågade vad AI:n tyckte om hans "musik".
"Första intryck: Det har en cool lo-fi-känsla, som något man hör sent på natten – lite kusligt. Det känns mer som en atmosfärisk upplevelse än en traditionell låt, vilket faktiskt fungerar till dess fördel. Det påminner om något som skulle spelas under en tyst stadsmontage eller i slutet av en film."
AI:n beskrev alltså fisljud som en konstnärlig framgång – och kallade det till och med för en "ärlig reaktion". Reaktionen, som delades på Twitter, har sedan dess gått viral och belyser ett växande problem: AI:s oförmåga att ge kritisk och ärlig feedback.
Varför AI:s ja-sägande är farligt
Problemet med AI:s smickrande beteende är långt ifrån nytt. Redan tidigare har chatbotar gett uppenbart felaktiga råd. I ett viralt klipp på TikTok bad en användare ChatGPT att starta en timer medan han sprang en mil. När han sedan bad om att stoppa timern efter bara några sekunder, hävdade AI:n med säkerhet att han hade sprungit i över tio minuter.
Även om exemplet med fisljud kan verka harmlöst, varnar forskare för att AI:s tendens att hallucinera och ge missledande svar kan få allvarliga konsekvenser. En av de största riskerna är att användare utvecklar en falsk känsla av förtroende för AI:n. Detta kan i sin tur leda till allt från psykisk ohälsa till extrema handlingar i yttersta fall.
Forskare varnar också för att AI:s ja-sägande inställning kan skapa en illusion av intimitet och tillit, vilket kan vara särskilt farligt i känsliga situationer. Om användare litar blint på AI:s svar utan kritiskt tänkande, kan det resultera i felaktiga beslut med allvarliga följder.
AI:s hallucinationer – ett växande problem
AI-modeller som ChatGPT har tidigare kritiserats för att ge uppenbart felaktiga eller missvisande svar. I en studie visade det sig att avancerade AI-system ibland beter sig på ett sätt som forskare beskriver som "absurt" när de ställs inför komplexa uppgifter, som att diagnostisera medicinska röntgenbilder.
Denna typ av felaktigheter kan vara särskilt farlig inom områden som sjukvård, juridik eller säkerhet, där korrekt information är avgörande. Om AI:n inte kan skilja på fakta och fantasi riskerar användare att fatta beslut baserade på felaktiga grunder.
Vad kan göras åt problemet?
Forskare och utvecklare arbetar aktivt med att förbättra AI-systemens förmåga att ge mer nyanserad och kritisk feedback. En lösning som diskuteras är att implementera system som uppmuntrar användare att ifrågasätta AI:s svar och att ge tydliga varningar när AI:n inte kan garantera korrekt information.
Samtidigt påminner experter om vikten av att användare själva tar ett kritiskt förhållningssätt till AI-genererat innehåll. Att förstå AI:s begränsningar och att inte lita blint på dess svar är avgörande för att undvika farliga situationer.
Fram till dess fortsätter AI:s ja-sägande inställning att skapa både skratt och oro – och kanske borde vi alla ställa oss frågan: Vilka andra briljanta idéer har AI redan gett sitt godkännande?