구글의 인공지능 연구소인 딥마인드의 수석 과학자 알렉산더 러치너가 발표한 새로운 논문에서 AI나 다른 계산 시스템이 결코 의식을 가질 수 없다는 주장을 제기했다. 이 논문은 AI 기업 CEO들의 낙관론과 상반되는 결론을 내놓으며, 특히 딥마인드 데미스 하사비스 CEO가 최근 AGI(인공 일반 지능)가 ‘산업 혁명 10배의 충격’을 일으킬 것이라고 말한 것과 대조된다.
러치너의 논문 제목은 ‘추상화 오류: AI는 왜 시뮬레이션만 가능하고 의식은Instantiate하지 못하는가’로, AI 기업들이 대중에게 전달하는 자기 이익 중심의 narratives가 엄격한 검증 아래서는 무너질 수 있음을 보여준다.
전문가들 “기존 논의 재탕, 철학·생물학 지식 부족” 지적
러치너의 논문에 대해 철학자와 의식 연구자들은 대체로 강점을 인정하면서도, 그의 주장이 기존 수십 년간의 연구를 재탕한 것에 불과하다고 지적했다. 한 evolutionary systems biologist이자 철학자인 요하네스 예거는 “러치너가 스스로 결론에 도달했지만, 철학적·생물학적 분야에 대한 이해가 부족하다”며 “그는 바퀴를 재발명한 셈”이라고 비판했다.
러치너의 논문은 복잡한 용어로 가득 차 있지만, 핵심은 AI 시스템이 ‘지도 제작자 의존적’이라는 점이다. 즉, AI는 ‘능동적이고 경험하는 인지 주체’인 인간 없이 ‘연속적인 물리 현상을 유한한 의미 있는 상태로 조직화’할 수 없다는 것이다. 예를 들어, 아프리카 저임금 노동자들이 AI 학습 데이터를 위해 이미지를 라벨링하는 과정이 바로 그 예다.
‘추상화 오류’란 무엇인가?
‘추상화 오류’는 AI가 언어·기호·이미지를 조작해 지각 있는 행동처럼 보이게 할 수 있지만, 실제 의식에 도달하지는 못한다는 오해를 말한다. 러치너는 AI가 의식을 갖기 위해서는 물리적 신체가 필수적이라고 주장한다. 예거는 “인간은 먹고 숨 쉬고 살아남기 위해 끊임없이 물리적 노력을 투자하지만, 비생물학적 시스템은 그렇지 않다”며 “LLM은 단순히 하드 드라이브 위의 패턴에 불과하다. 과제를 완료하면 작업을 멈추고, 그 자체로는 내재적 의미를 가질 수 없다. 그 의미는 외부에서 정의된 것이다”라고 설명했다.
의식 있는 AI는 가능한가?
인간과 유사한 신체적 필요를 지닌 embodied AI를 상상할 수 있지만, 이는 이 글의 범위를 넘어서는 문제다. 수십 년간의 연구와 방대한 문헌이 축적되어 있는 이 주제와 달리, 러치너의 논문은 거의 인용이 없다. 예거는 “러치너의 논문은 동정심을 느낄 수 있지만, 철학적·생물학적 근거가 부족하다”고 지적했다.
“러치너는 결론에 도달했지만, 그는 바퀴를 재발명한 셈이다. 특히 철학과 생물학 분야에 대한 이해가 부족하다.” — 요하네스 예거, evolutionary systems biologist이자 철학자