Referanser i vitenskapelige artikler skal sikre at forskningen bygger på tidligere arbeid og skape en tydelig «slektstre» av ideer, metoder og studier. Likevel viser en ny studie at stadig flere referanser ikke fører til reelle kilder – de er rett og slett oppdiktet.
Forskerne bak studien, publisert i The Lancet denne uken, påpeker at verktøy basert på generativ AI trolig er en medvirkende årsak til problemet. Studien dokumenterer hvordan falske referanser forurenser den vitenskapelige litteraturen og underminerer tilliten til forskningsresultater.
«Dette er et alvorlig problem som kan få store konsekvenser for forskningens integritet,» sier forskerne ved Columbia University. «Når referanser ikke er reelle, blir det vanskeligere å etterprøve funn og bygge videre på tidligere arbeid.»
AI som syndebukk
Generativ AI har revolusjonert forskningsprosessen ved å automatisere litteratursøk og referansehåndtering. Men verktøyene har også en mørkere side: De kan produsere referanser som ser troverdige ut, men som ikke eksisterer. Dette fenomenet, ofte omtalt som «AI-hallusinasjoner», oppstår når AI-systemer genererer innhold som virker plausibelt, men som er feilaktig.
«AI-verktøyene er ikke alltid nøyaktige, og det er avgjørende at forskere dobbeltsjekker referansene manuelt,» understreker forskerne. «Selv om AI kan effektivisere arbeidet, må menneskelig kontroll stå sentralt.»
Konsekvenser for forskningen
Falske referanser kan få alvorlige følger. De kan:
- Underminere tilliten til vitenskapelige funn og metoder.
- Forhindre korrekt gjenfinning av tidligere forskning, noe som bremser fremskritt.
- Gi feilaktig inntrykk av at en studie er grundigere undersøkt enn den faktisk er.
Studien fra The Lancet viser at problemet ikke lenger er isolert til enkeltstudier, men har blitt et systemisk problem innen akademisk publisering. Forskere frykter at falske referanser kan føre til at feilaktige konklusjoner spres og blir stående som «sannheter» i fagfeltet.
«Vi står overfor en krise når det gjelder referanseintegritet. Hvis vi ikke tar tak i dette nå, risikerer vi at tilliten til vitenskapen som helhet blir svekket.» – Forskere ved Columbia University
Hva kan gjøres?
Forskerne bak studien oppfordrer til strengere kontrollrutiner og økt bevissthet rundt bruk av AI-verktøy. Blant tiltakene de foreslår er:
- Manuell verifisering av alle referanser før publisering.
- Utvikling av bedre AI-verktøy som kan oppdage og varsle om potensielt falske referanser.
- Økt åpenhet om hvordan AI brukes i forskningsprosessen.
«Forskere må ta ansvar for kvaliteten på sine referanser, uavhengig av hvilke verktøy de bruker,» sier forskerne. «AI kan være et kraftig hjelpemiddel, men det kan aldri erstatte kritisk tenkning og nøyaktighet.»