Alexander Lerchner, starszy naukowiec z laboratorium sztucznej inteligencji Google DeepMind, opublikował niedawno pracę, w której stanowczo twierdzi, że żaden system AI ani żaden inny system obliczeniowy nie będzie w stanie osiągnąć świadomości. Jego wniosek kłóci się z narracją szefów firm AI, w tym samego Demisa Hassabisa z DeepMind, który wielokrotnie mówił o nadejściu sztucznej inteligencji ogólnego przeznaczenia (AGI). Niedawno Hassabis stwierdził, że AGI „będzie miało wpływ dziesięciokrotnie większy niż rewolucja przemysłowa, ale nastąpi dziesięciokrotnie szybciej”.

Praca Lerchnera ukazuje rozbieżność między medialnymi narracjami firm AI a ich rzeczywistymi możliwościami, które załamują się pod wpływem rygorystycznej analizy. Inni filozofowie i badacze świadomości, z którymi rozmawiał autor tekstu, uznali, że jego artykuł zatytułowany „Fałszywe uogólnienie: Dlaczego AI może symulować, ale nie ucieleśnić świadomości” jest merytoryczny. Wyrazili jednak wątpliwości co do jego oryginalności, podkreślając, że podobne argumenty pojawiają się w literaturze naukowej od dziesięcioleci.

„Myślę, że Lerchner doszedł do tego wniosku samodzielnie, niejako odkrywając na nowo to, co już dawno zostało udowodnione. Nie jest dobrze zaznajomiony z literaturą filozoficzną, a już na pewno nie z biologią”, powiedział Johannes Jäger, biolog systemowy i filozof ewolucyjny.

Artykuł Lerchnera jest złożony i pełen specjalistycznego żargonu, ale jego główna teza sprowadza się do stwierdzenia, że każdy system AI jest „zależny od twórcy mapy”. Oznacza to, że do działania wymaga aktywnego, doświadczającego agenta poznawczego – człowieka – który „przetłumaczy ciągłą fizykę na skończony zbiór znaczeniowych stanów”. Innymi słowy, to człowiek musi najpierw zorganizować świat w sposób użyteczny dla systemu AI, tak jak np. tysiące tanio opłaconych pracowników w Afryce etykietuje obrazy, tworząc dane treningowe dla AI.

Tak zwany „błąd abstrakcji” polega na błędnym przekonaniu, że skoro zorganizowaliśmy dane w taki sposób, aby AI mogła manipulować językiem, symbolami i obrazami, naśladując zachowania świadome, to mogłaby również osiągnąć świadomość. Lerchner argumentuje jednak, że jest to niemożliwe bez fizycznego ciała. „Człowiek ma wiele innych motywacji. To trochę bardziej skomplikowane, ale wszystkie one wynikają z faktu, że musisz jeść, oddychać i nieustannie wkładać wysiłek fizyczny, aby pozostać przy życiu – czego żaden system nieożywiony nie robi”, wyjaśnia Jäger. „Model językowy nie robi tego. To tylko zbiór wzorców na dysku twardym. Dostaje prompt, wykonuje zadanie i kończy działanie. Nie posiada żadnego wewnętrznego znaczenia – jego znaczenie jest definiowane zewnętrznie przez człowieka”.

Można sobie wyobrazić system AI wyposażony w ciało fizyczne i ludzkie potrzeby, jednak Jäger zwraca uwagę, że nawet taki scenariusz nie gwarantowałby osiągnięcia świadomości – choć to temat na osobny artykuł. Istnieje ogromna liczba publikacji i dziesięcioleci badań na ten temat, a Lerchner w swojej pracy cytuje jedynie niewielką część z nich. „W pewnym sensie jestem po jego stronie, ale brakuje mu głębszego zrozumienia filozofii i biologii”, dodaje Jäger.

Źródło: 404 Media