Een encyclopedie die zichzelf verzint

Een nieuwe website in Wikipedia-stijl, Halupedia, claimt volledig te draaien op AI-hallucinaties. Elke zoekopdracht of klik op een link activeert een AI-model dat ter plekke een nieuwe, fictieve encyclopediepagina genereert. De makers beschrijven het als een "oneindige" bron van kennis, waarbij elk onderwerp – hoe absurd ook – wordt voorgesteld als een serieuze historische of wetenschappelijke bron.

De homepage is transparant: het is een experiment in AI-fabulatie. Maar zodra je een van de talloze pagina’s opent, voelt het alsof je een echte kennisdatabase doorbladert. Totdat je de absurde details tegenkomt. Denk aan citaten uit niet-bestaande wetenschappelijke tijdschriften, voetnoten naar niet-gepubliceerde studies en vermeende historische gebeurtenissen die nergens in de echte wereld terug te vinden zijn.

Voorbeelden van AI-genererende onzin

Een van de meest opvallende artikelen gaat over "De Grote Duifentelling van 1887". Volgens Halupedia was dit een ambitieus project van de Royal Society for Avian Enumeration (RSFE), bedoeld om elke goudkuifduif in het Verenigd Koninkrijk nauwkeurig te tellen. De telling zou zijn bedacht door Sir Reginald Featherton, een ridder die geloofde dat een accurate duifentelling essentieel was voor de verdeling van "Parlementaire Kruimels" – een fictieve term voor overheidsbudgetten.

Net als op Wikipedia verwijzen namen en termen in de artikelen naar andere pagina’s. Zo kun je doorklikken naar het profiel van Sir Featherton of de RSFE. Ook kun je zelf nieuwe onderwerpen invoeren via het zoekveld. Zoek je op "onzin", dan krijg je suggesties als "Het Gnomische Mandaat van Cirkelredenering". Klik je daarop, dan genereert de AI ter plekke een compleet nieuw artikel vol met fictieve autoriteit.

Hoe de AI de illusie van consistentie creëert

Ondanks de talloze lagen van nonsens probeerden de ontwikkelaars de hallucinaties tenminste lore-consistent te houden. Ze implementeerden een "write-forward" functie: links naar nog niet bestaande artikelen bevatten verborgen metadata die de AI vertelt welke "canonieke" feiten moeten worden gerespecteerd. Zo wordt voorkomen dat een artikel later tegenstrijdigheden bevat.

Toch is het systeem niet perfect. Het artikel over de RSFE vermeldt bijvoorbeeld dat de organisatie in 1927 werd opgeheven, terwijl het artikel over de duifentelling stelt dat dit in 1891 gebeurde. Een kleine, maar opvallende fout in een verder overtuigende illusie van kennis.

De keerzijde: edgelords en racistische inhoud

Net als veel ongeregelde internetexperimenten heeft Halupedia te maken met misbruik. Sommige gebruikers voegen bewust racistische of beledigende titels toe aan artikelen. De AI zelf lijkt deze inhoud echter te negeren en blijft gewoon verder hallucineren, alsof de beledigingen niet eens bestaan. De makers benadrukken dat het een puur technisch experiment is, zonder intentie om serieuze kennis te verspreiden.

Een experiment in AI-fabulatie

Halupedia is geen echte encyclopedie, maar een demonstratie van hoe ver AI kan gaan in het genereren van overtuigende, maar volledig fictieve inhoud. Het toont aan dat zelfs nonsens een bepaalde logica kan hebben – zolang je bereid bent om je twijfels opzij te zetten en de illusie van kennis te omarmen.

"Elke link leidt naar een artikel dat nog niet bestaat – tot je erop klikt."
– Beschrijving op GitHub