米グーグルの人工知能研究機関DeepMindに所属する上級研究員のアレクサンダー・レルヒナー氏は、このほど発表した論文で、AIを含むいかなる計算システムも意識を獲得することはないと主張した。同氏の見解は、DeepMind CEOのデミス・ハッサビス氏をはじめとするAI企業の経営者らが唱える「汎用人工知能(AGI)の実現」という主張と真っ向から対立する内容となっている。

ハッサビス氏は最近の発言で、AGIが「産業革命の10倍のインパクトを、10倍の速度で実現する」と述べており、その影響力の大きさを強調していた。しかしレルヒナー氏の論文は、AI企業がメディアで発信する自己都合の主張が、厳密な検証の下では崩壊することを示すものだ。

専門家からの評価と批判

意識研究の哲学者や研究者らによると、レルヒナー氏の論文「抽象化の誤謬:AIがシミュレートできても意識を具現化できない理由」は一定の説得力があると評価されている。その一方で、同分野の専門家らは「既に数十年にわたり同様の議論が展開されてきた」と指摘。オーストリアの進化システム生物学者で哲学者のヨハネス・イェーガー氏は、「レルヒナー氏は独自に結論に至ったようだが、哲学や生物学の分野に関する知識が不足しており、単に既存の議論を再発見したに過ぎない」と述べた。

「抽象化の誤謬」とは

レルヒナー氏の論文は専門用語が多く難解だが、その主張は要約すると「AIシステムは最終的に『地図作成者依存』であり、人間のような能動的な認知主体を必要とする」というものだ。具体的には、人間がAIにとって有用な状態に世界を整理する役割を担う必要があるという。例えば、アフリカの低賃金労働者がAIの学習データとなる画像にラベル付けを行う作業などがその一例だ。

「抽象化の誤謬」とは、AIが言語や記号、画像を操作することで擬似的な意識行動を模倣できるように見えても、実際に意識を獲得することは不可能であるという誤った信念を指す。レルヒナー氏は、AIが意識を獲得するためには物理的な身体が必要だと主張する。

「人間は多くの動機を持っています。しかし、その根底には『食べる』『呼吸する』『生き続けるために絶えず肉体的な労働を投資する』という基本的な事実があります。非生物システムにはそれがありません。LLMは単なるハードディスク上のパターンに過ぎません。人間が外部から意味を与えることで初めて機能するのです。LLM自体には固有の意味はなく、その意味は人間のエージェントによって定義されるのです」
(ヨハネス・イェーガー氏)

イェーガー氏は、人間のような身体的ニーズをプログラムされたAIであっても意識を獲得できない理由について言及したが、詳細は本記事の範囲を超える。意識研究に関する膨大な文献や研究の蓄積があるにもかかわらず、レルヒナー氏の論文ではそれらがほとんど引用されていない点も専門家からの批判につながっている。

出典: 404 Media