Старший научный сотрудник лаборатории искусственного интеллекта Google DeepMind Александр Лерхнер опубликовал новую научную работу, в которой категорически заявляет: ни одна ИИ-система, включая большие языковые модели, не сможет обрести сознание. Это утверждение вступает в противоречие с позицией руководителей ведущих ИИ-компаний, включая генерального директора DeepMind Демиса Хассабиса, который неоднократно заявлял о скором появлении искусственного общего интеллекта (AGI).
По мнению Хассабиса, AGI окажет влияние, сопоставимое с промышленной революцией, но произойдет это в десять раз быстрее. Однако работа Лерхнера демонстрирует принципиальное расхождение между маркетинговыми нарративами ИИ-компаний и реальными научными выводами.
Критика аргументов Лерхнера
Некоторые эксперты в области философии сознания и когнитивных наук признают, что статья Лерхнера, озаглавленная «Заблуждение абстракции: почему ИИ может симулировать, но не обретает сознание», содержит сильные аргументы. Однако они отмечают, что подобные идеи уже десятилетиями обсуждаются в научном сообществе.
«Я думаю, Лерхнер пришел к этому выводу самостоятельно, фактически изобретя велосипед. Он не достаточно хорошо знаком с философской литературой и, конечно, не с биологией», — заявил Йоханнес Йегер, эволюционный биолог и философ. По его словам, Лерхнер не ссылается на обширную научную базу, посвященную этой проблеме.
Почему ИИ не может быть сознательным
Основной аргумент Лерхнера сводится к понятию «зависимости от создателя». По его мнению, любая ИИ-система требует активного когнитивного агента — человека, который структурирует окружающий мир в виде конечного набора значимых состояний. Например, без труда анонимных работников, размечающих данные для обучения ИИ, современные модели не могли бы функционировать.
Йегер подчеркивает, что сознание неразрывно связано с физическими потребностями живых организмов: «У человека есть множество мотиваций, но все они проистекают из необходимости есть, дышать и поддерживать свою жизнь. Ни одна неживая система не обладает такими потребностями».
«Большая языковая модель — это просто набор паттернов на жестком диске. Она получает запрос, обрабатывает его и завершает работу. У нее нет внутреннего смысла — его задает человек, определяя, что именно считать значимым», — объясняет эксперт.
Вопрос о «воплощенном» ИИ
Некоторые ученые допускают возможность создания ИИ с физическими потребностями, напоминающими человеческие. Однако Йегер отмечает, что даже в этом случае достижение сознания остается крайне маловероятным. Эта тема требует отдельного глубокого анализа, выходящего за рамки текущей статьи.
Работа Лерхнера лишь подтверждает давний научный консенсус: современные ИИ-модели способны лишь симулировать отдельные аспекты интеллекта и поведения, но не обладают истинным пониманием или сознанием.