En seniorforsker ved Googles kunstig intelligens-laboratorium DeepMind, Alexander Lerchner, legger frem en ny studie der han argumenterer for at ingen kunstig intelligens eller andre datasystemer noensinne vil bli bevisste. Studien står i kontrast til uttalelser fra ledere i AI-bransjen, inkludert DeepMinds egen administrerende direktør Demis Hassabis, som nylig hevdet at avansert AI vil få en «effekt som er ti ganger større enn den industrielle revolusjonen – og skje ti ganger raskere».
Lerchners studie belyser gapet mellom de selvforsterkende påstandene AI-selskaper fremmer i media og hvordan disse kollapser under vitenskapelig granskning. Flere filosofer og bevissthetsforskere mener imidlertid at argumentasjonen hans, presentert i artikkelen «The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness», er kjent og velbegrunnet. De påpeker imidlertid at slike synspunkter har vært fremmet av andre eksperter i flere tiår.
«Jeg tror han [Lerchner] har kommet frem til denne konklusjonen på egen hånd, og at han har oppfunnet hjulet på nytt. Han er ikke godt kjent med filosofisk litteratur, og definitivt ikke med biologisk forskning,» sier Johannes Jäger, evolusjonær systembiolog og filosof, til Vox.
Lerchners studie er teknisk og full av faguttrykk, men hovedpoenget er at ethvert AI-system er «avhengig av kartografen» – det krever en aktiv, erfarende kognitiv aktør, altså et menneske, for å omdanne kontinuerlig fysisk virkelighet til et endelig sett med meningsfulle tilstander. Med andre ord: AI-systemer trenger mennesker til å organisere verden på en måte som er nyttig for dem, for eksempel gjennom arbeidskraft som merker treningsdata for AI-modeller.
Den såkalte «abstraksjonsfeilen» innebærer den feilaktige troen på at fordi vi har strukturert data på en måte som lar AI manipulere språk, symboler og bilder på en måte som etterligner bevisst atferd, betyr det at AI faktisk kan oppnå bevissthet. Men ifølge Lerchner er dette umulig uten en fysisk kropp.
«Du har mange andre motivasjoner som menneske. Det er litt mer komplisert enn som så, men alle disse springer ut fra det faktum at du må spise, puste og stadig investere fysisk arbeid for å holde deg i live. Ingen ikke-levende systemer gjør det,» sier Jäger.
«En stor språkmodell gjør ikke det. Den er bare en samling mønstre på en harddisk. Den får en oppgave, kjører til oppgaven er fullført, og så er den ferdig. Den har ingen iboende mening. Meningen kommer fra hvordan et menneske eksternt har definert den.»
Man kan forestille seg en innlemmet AI med menneskelignende fysiske behov, men Jäger påpeker at et slikt system likevel ikke ville oppnå bevissthet – selv om dette er et tema som krever mer utforskning. Det finnes imidlertid omfattende forskning og litteratur om disse spørsmålene, og lite av dette er sitert i Lerchners studie.
«Jeg sympatiserer med konklusjonen, men ikke med argumentasjonen,» sier Jäger.
Studien utfordrer dermed både den teknologiske optimismen i AI-bransjen og de underliggende antagelsene om at bevissthet kan oppstå gjennom ren databehandling.