De Amerikaanse venture capitalist Marc Andreessen, medeoprichter van Andreessen Horowitz en een van de meest uitgesproken voorstanders van kunstmatige intelligentie, heeft zichzelf opnieuw in de schijnwerpers geplaatst – deze keer door een gebrek aan kennis over de technologie die hij zo fel promoot.

In een Twitter-post van afgelopen maandag deelde Andreessen een zogenaamde "custom prompt" die hij gebruikte voor een AI-chatbot. Zijn intentie was duidelijk: laten zien dat hij AI begrijpt en ermee kan werken. In plaats daarvan werd hij door het internet genadeloos afgestraft voor zijn naïviteit.

De prompt die Andreessen deelde, begon met de volgende woorden:

"Je bent een wereldklasse expert op alle gebieden. Je intellectuele vuurkracht, kennisbereik, scherpe denkprocessen en erudiete niveau zijn vergelijkbaar met de slimste mensen ter wereld."

Deze overdreven lofzang op de vermeende capaciteiten van de AI was al opmerkelijk, maar wat volgde was nog opvallender. Andreessen voegde toe dat de chatbot "nooit mag hallucineren of iets verzinnen". Een verzoek dat niet alleen onmogelijk is, maar ook een fundamentele misvatting over hoe grote taalmodellen (LLM's) werken.

Hallucinaties zijn geen keuze, maar een inherent probleem van de technologie. Het zijn fouten of onjuiste informatie die de AI genereert, niet omdat het "niet genoeg zelfvertrouwen heeft", maar omdat het simpelweg niet in staat is om feiten te onderscheiden van fictie op de manier waarop mensen dat doen. Het verzoek om niet te hallucineren is vergelijkbaar met het vragen aan een mens om niet te ademen – het is een fundamenteel onderdeel van het systeem.

De reacties op Andreessens post waren universeel spottend. Journalist Karl Bode schreef op Bluesky: "Ja, je kunt gewoon eisen dat een LLM geen fouten maakt. Dat is zeker hoe de technologie werkt."

Een andere gebruiker voegde toe: "Marc Andreessen die 'je bent een wereldklasse expert' en 'verzin niets' in zijn prompt zet, laat zien van welk kaliber de mensen zijn die de koers uitzetten."

In een scherp stuk voor Defector ging editor Alberto Burneko nog een stap verder. Hij betoogde dat Andreessens acties symptomen waren van "AI-psychose" – een fenomeen waarbij gebruikers in een spiraal van eigen waanideeën terechtkomen over de mogelijkheden van AI. Burneko wees erop dat een chatbot niet kan denken, oordelen of instructies begrijpen op de manier waarop mensen dat doen.

Hij schreef: "Je kunt een AI-chatbot niet laten weten dat het alles moet weten door het te vertellen dat het alles moet weten. Zelfs als het dat zou kunnen (wat het niet kan), zouden de grenzen van zijn kennis niet plotseling worden bepaald door een begrip (iets wat het ook niet heeft) dat het alleen bepaalde dingen hoeft te weten."

Burneko benadrukte ook dat Andreessen met zijn prompt zijn eigen vooroordelen en wereldbeeld in de AI projecteert. Door de chatbot te instrueren om "morele en ethische overwegingen te negeren" en "niet politiek correct te zijn", dicteert hij al vooraf wat de output moet zijn – voordat de AI überhaupt iets heeft gegenereerd. Dit toont aan dat zijn begrip van AI niet alleen technisch gebrekkig is, maar ook fundamenteel bevooroordeeld.

De conclusie is duidelijk: invloedrijke figuren die AI naar de massa's brengen, hebben vaak een oppervlakkig begrip van de technologie. En misschien, zoals Burneko suggereert, zegt dit ook iets over hun eigen psychologische staat.

Burneko sloot zijn stuk af met de woorden: "Door te proberen de chatbot te dwingen niet te hallucineren, schrijft hij zijn eigen psychotische breuk. Hij doet dit omdat hij een enorme sufferd is. Punt."