En ny online encyklopædi, Halupedia, hævder at være bygget udelukkende på AI-genererede hallucinationer. Hver gang en bruger søger efter et emne eller klikker på et link, skaber en bagvedliggende AI-model en ny, fiktiv artikel fyldt med absurde påstande og falske kilder.

Projektet er udviklet som en satirisk kommentar til moderne AI-teknologi og dens ukontrollerede udbredelse. Ifølge GitHub-beskrivelsen fungerer Halupedia som en "uendelig" encyklopædi, hvor hvert klik på et link eller en søgning bliver en ny prompt for AI’en. Resultatet er en tør, 1900-tals-inspireret skrifttone, der præsenterer fiktive fakta som om de var autentiske.

En encyklopædi af løgne – men med struktur

Halupedia’s startside gør det klart, at indholdet er opdigtet, men når man først begynder at udforske artiklerne, føles det næsten som en rigtig videnbase – så længe man ignorerer de mange absurde påstande. Artiklerne indeholder links, citater og fodnoter fra angiveligt videnskabelige tidsskrifter, men alle kilder er naturligvis opdigtede.

Et af de mest populære eksempler er artiklen om "Den Store Duerensus 1887", som angiveligt var et ambitiøst, men mislykket projekt iværksat af Royal Society for Avian Enumeration (RSFE). Ifølge Halupedia havde organisationen til formål at tælle hver eneste guldtoppet klippedue i Storbritannien og Irland. Projektet blev angiveligt ledet af Sir Reginald Featherton, der mente, at en præcis duetælling var afgørende for at forstå byernes ressourcefordeling og fordeling af parlamentets smuler.

Ligesom på Wikipedia kan man klikke på navne og begreber for at læse mere. Man kan også oprette nye artikler ved at skrive i søgefeltet. Halupedia foreslår derefter en række opdigtede artikeloverskrifter relateret til søgningen. Søger man for eksempel på "bullshit", foreslår systemet blandt andet en artikel med titlen "The Gnomish Mandate of Circular Reasoning".

AI’en holder sig til en fiktiv kanon

På trods af det åbenlyst opdigtede indhold har udviklerne forsøgt at gøre hallucinationerne konsistente. De har indført en funktion, der sikrer, at links til kommende artikler indeholder skjult metadata, som AI’en bruger til at opretholde en form for intern logik. Ifølge GitHub-siden instrueres AI’en om, at encyklopædien er opdigtet og absurd, men den må ikke modsige sig selv.

Systemet er dog ikke fejlfrit. For eksempel hævder artiklen om Royal Society for Avian Enumeration, at organisationen blev opløst i 1927, mens den oprindelige artikel om Den Store Duerensus 1887 angiver opløsningsåret til 1891.

Problemer med racistisk indhold

Desværre har Halupedia også tiltrukket brugere, der udnytter systemet til at indsætte racistiske og krænkende titler. AI’en selv synes imidlertid at ignorere det racistiske indhold i de fleste tilfælde.

Kilde: Futurism