AI som opinionsmätare – en ny trend med allvarliga risker
En nyligen publicerad artikel i Axios fick en oväntad korrigering. Tidningen hade rapporterat om en påstådd ökande mödrahälsokris i USA baserat på opinionsdata från företaget Aaru. Men enligt en redaktionell notering var det inte fråga om traditionell opinionsmätning – utan om AI-genererade svar. Aaru är nämligen ett företag som använder stora språkmodeller för att simulera mänskliga svar, en metod som kallas "silicon sampling".
Denna händelse belyser en växande trend där opinionsinstitut och forskare allt oftare använder AI för att generera datamaterial. Men experter varnar för att denna metod inte bara är missvisande – den kan också underminera förtroendet för opinionsmätningar i stort.
Varför "silicon sampling" är problematiskt
Enligt Leif Weatherby, chef för Digital Theory Lab, och Benjamin Recht, professor i datavetenskap vid University of California, Berkeley, bygger metoden på en felaktig premiss. I en gemensam krönika i New York Times skriver de att AI-modeller kan generera svar som liknar mänskliga reaktioner, men att detta inte motsvarar verkliga åsikter.
"Data har endast värde om den speglar de verkliga åsikterna hos människor", skriver de. "Att ersätta mänskliga svar med AI-simuleringar kommer bara att förvärra den redan skadade informationsmiljön och skapa misstro."
Traditionella opinionsmätningar använder statistiska modeller för att kompensera för ett begränsat antal respondenter och för att hantera eventuella skevheter i datan. Men att helt ersätta mänskliga svar med AI-genererade data är en helt annan sak – och riskerna är stora. AI-modeller kan introducera egna fördomar och påverka den allmänna opinionen snarare än att rapportera den.
Forskning visar på stora brister
En studie från Northeastern University 2025 visar att AI-genererade opinionsdata inte är tillförlitliga substitut för mänskliga respondenter, särskilt när det gäller politiska frågor. Forskarna konstaterar att AI-modeller ofta misslyckas med att fånga nyanserade åsikter och tenderar att stereotypa grupper på grund av fördomsfull träningsdata och interna säkerhetsfilter.
Författarna till studien rekommenderar en hybridmodell där AI används för att förbättra forskningsdesignen, men där mänskliga respondenter fortfarande utgör grunden för datainsamlingen.
Även Jamie Cummins, doktorand vid University of Bern, har i en ännu ej granskad studie funnit att generering av AI-simulerade opinionsdata innebär många analytiska val som kan påverka datakvaliteten avsevärt. "Även ett fåtal beslut kan dramatiskt förändra hur väl AI-genererade data motsvarar verkliga mänskliga svar", skriver han.
Företag fortsätter trots varningarna
Trots de tydliga varningarna från forskare fortsätter företag som Aaru att marknadsföra AI-genererade opinionsdata som en kostnadseffektiv och snabb lösning. Metoden lovar att ersätta traditionella undersökningar till en bråkdel av kostnaden och tiden, men riskerna med felaktiga slutsatser och förvrängd information är stora.
Experter menar att den enda hållbara lösningen är att behålla mänskliga respondenter som standard och endast använda AI som ett komplement – inte som en ersättning. Annars riskerar vi att underminera grunden för demokratisk opinionsbildning och skapa en värld där allmänheten inte längre kan lita på de undersökningar som påstår sig representera deras åsikter.
"Att ersätta mänskliga svar med AI-simuleringar kommer bara att förvärra den redan skadade informationsmiljön och skapa misstro."
Leif Weatherby och Benjamin Recht, Digital Theory Lab och UC Berkeley