AI-sökningar: En tillit som saknas
Över hälften av alla vuxna amerikaner har använt AI-drivna sökverktyg under de senaste sex månaderna. Men endast 15 procent säger sig lita på resultaten fullt ut. Denna klyfta mellan användning och tillit utgör den största utmaningen för nästa generation av AI-sökningar. Konsumenterna använder verktygen, men ifrågasätter resultaten. För produktutvecklare innebär detta en avgörande fråga: Bygger vi upplevelser som förtjänar och kräver användarnas förtroende?
Problemet med den slutna trädgården
En ny undersökning genomförd av Yelp i samarbete med Morning Consult bland över 2 200 amerikanska vuxna visar på ett återkommande problem: konsumenterna känner sig instängda. Mer än hälften av respondenterna (51 procent) upplever att AI-resultat känns som en sluten trädgård där det är svårt att verifiera informationen. 63 procent dubbelkollar AI-resultat mot andra pålitliga källor som nyhetssajter och recensionsplattformar. Och 57 procent säger sig vara mindre benägna att använda AI-sökningar just för att de saknar tillförlitliga källor.
I AI-sökningarnas tidiga skede handlade problemen främst om hallucinationer – att modeller med säkerhet presenterade felaktiga svar. De flesta ledande plattformar har i stort sett löst den tekniska utmaningen. Men kvar finns en djupare skepsis: inte bara "Är svaret korrekt?" utan "Hur kan jag ens veta det?"
När plattformar tar bort källor, referenser och länkar till den verkliga information som ligger till grund för svaren, bygger de murar istället för broar. Konsumenterna säger tydligt att de vill ha länkar, källor och möjligheten att själva verifiera informationen.
Så bygger man förtroende – och öppnar dörrarna
Undersökningen ger en tydlig bild av vad som krävs för att minska tillitsgapet. Nästan tre av fyra respondenter (72 procent) säger att AI-plattformar alltid bör visa var informationen kommer ifrån. Två tredjedelar (66 procent) vill ha mer bevis på tillförlitliga källor, som länkar till recensionsplattformar och nyhetssajter, tillsammans med AI-genererade svar. Mer än hälften (52 procent) säger att visuella bevis, som bilder på en maträtt eller före-och-efter-bilder av en tjänst, skulle öka deras tillit.
Konsumenterna är inte emot AI. De är emot svarta lådor. De vill att AI ska göra det tunga jobbet att sortera igenom stora mängder information – och sedan visa upp källorna. Den genomsnittlige användaren använder AI inte för att programmera eller andra tekniska ändamål, utan för vardagliga lokala sökningar. Mer än hälften (57 procent) använder AI-verktyg för att hitta lokala företag minst en gång i månaden. De vill ha råd om var de ska ta familjen på födelsedagskalas eller välja vem de ska låta in i hemmet för att laga ett trasigt rör. En självständig AI-sammanfattning utan tillförlitliga bevis räcker inte.
När konsumenterna vänder sig till AI för att fatta beslut är förväntningarna tydliga: 76 procent säger att det är viktigt att se var informationen kommer ifrån, 73 procent anser att betyg och recensioner från riktiga kunder spelar roll, och 76 procent tycker att det är viktigt att se flera pålitliga källor.
Lokala företag är dessutom dynamiska. En kock kan byta meny, en hantverkare kan få nya certifieringar, och en butik kan byta adress. Om AI-sökningar inte hänger med i dessa förändringar riskerar de att ge inaktuell eller felaktig information – vilket ytterligare underminerar förtroendet.
"Konsumenterna vill inte bara ha ett snabbt svar. De vill ha ett svar som de kan lita på – och det kräver transparens."
Vad krävs för att vända trenden?
- Synliga källor: AI-plattformar måste alltid visa var informationen kommer ifrån.
- Länkar till pålitliga källor: Recensionsplattformar, nyhetssajter och andra trovärdiga källor bör integreras direkt i AI-svaren.
- Visuella bevis: Bilder, videor och andra former av dokumentation stärker tilliten.
- Uppdaterad information: AI måste hålla jämna steg med förändringar hos lokala företag för att undvika felaktigheter.
- Fler perspektiv: Att visa flera källor och olika synvinklar minskar risken för partiskhet och felaktigheter.