Een senior wetenschapper van Google DeepMind, Alexander Lerchner, betoogt in een recent gepubliceerd wetenschappelijk paper dat kunstmatige intelligentie (AI) en andere computationele systemen nooit bewustzijn kunnen ontwikkelen. Zijn conclusie staat haaks op de retoriek van leidinggevenden in de techsector, waaronder DeepMind-CEO Demis Hassabis, die herhaaldelijk de komst van Artificial General Intelligence (AGI) aankondigt.
Hassabis noemde AGI onlangs een revolutie die "tien keer groter zal zijn dan de Industriële Revolutie, maar dan tien keer sneller". Lerchners paper toont volgens hem de kloof tussen de marketingverhalen van AI-bedrijven en de wetenschappelijke werkelijkheid.
Critici: Argumenten zijn niet nieuw
Hoewel sommige filosofen en bewustzijnsonderzoekers Lerchners paper prijzen, vinden anderen dat hij oude argumenten heruitvindt. Johannes Jäger, evolutionair systeembioloog en filosoof, stelt dat Lerchner zijn conclusies zelf heeft getrokken zonder diepgaande kennis van filosofie of biologie.
"Ik denk dat hij tot deze conclusie is gekomen zonder de literatuur te kennen. Hij heeft het wiel opnieuw uitgevonden", aldus Jäger. Lerchners paper is complex en vol met vakjargon, maar de kern van zijn betoog is dat AI-systemen afhankelijk zijn van menselijke tussenkomst.
De 'abstraction fallacy': AI simuleert, maar ervaart niet
Lerchner introduceert het concept van de "abstraction fallacy": de misvatting dat AI bewustzijn kan ontwikkelen omdat het taal, symbolen en beelden kan manipuleren op een manier die menselijk gedrag nabootst. Volgens hem is dat onmogelijk zonder een fysiek lichaam.
"Mensen hebben allerlei motivaties, zoals de noodzaak om te eten, ademen en fysiek werk te verrichten om te overleven. Geen enkel niet-levend systeem doet dat", legt Jäger uit. "Een taalmodel zoals een LLM is niets meer dan een verzameling patronen op een harde schijf. Het voert taken uit op commando en stopt daarna. Het heeft geen intrinsieke betekenis; die wordt alleen door mensen extern toegekend."
Hoewel men zich een embodied AI kan voorstellen met menselijke behoeften, zou ook dat volgens Jäger geen bewustzijn kunnen ontwikkelen. Zijn kritiek richt zich vooral op het gebrek aan verwijzingen naar bestaande literatuur in Lerchners paper.
"Ik ben het eens met de conclusie, maar zijn argumenten zijn niet origineel. Dit wordt al decennialang onderzocht."
De discussie over AI en bewustzijn blijft een van de meest complexe vraagstukken in de wetenschap. Terwijl techbedrijven blijven investeren in AGI, benadrukken critici dat bewustzijn meer vereist dan alleen geavanceerde algoritmes.