Kesadaran AI: Kontroversi Baru dari Google DeepMind
Seorang ilmuwan senior di laboratorium kecerdasan buatan Google DeepMind, Alexander Lerchner, baru-baru ini menerbitkan makalah yang menyimpulkan bahwa tidak ada sistem AI atau komputasi lainnya yang akan pernah mencapai kesadaran. Klaim ini menimbulkan perdebatan karena bertentangan dengan narasi yang selama ini dipromosikan oleh para CEO perusahaan AI, termasuk pendiri DeepMind sendiri, Demis Hassabis.
Hassabis baru-baru ini menyatakan bahwa AGI (Artificial General Intelligence) akan memiliki dampak yang luar biasa, setara dengan "10 kali Revolusi Industri, tetapi terjadi 10 kali lebih cepat". Namun, makalah Lerchner justru menunjukkan ketidaksesuaian antara klaim optimistis perusahaan AI dengan realitas ilmiah yang lebih kompleks.
Makalah Lerchner: "Abstraction Fallacy" dan Keterbatasan AI
Makalah Lerchner berjudul "The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness" menawarkan argumen yang menantang gagasan bahwa AI dapat mencapai kesadaran. Menurutnya, sistem AI pada dasarnya bergantung pada "pembuat peta"—sebuah agen kognitif yang berpengalaman, dalam hal ini manusia—untuk mengubah dunia fisik yang kontinu menjadi serangkaian keadaan bermakna yang dapat dipahami AI.
Dengan kata lain, AI tidak dapat memahami dunia dengan sendirinya. Ia membutuhkan manusia untuk mengorganisasi data, seperti pekerja berupah rendah di Afrika yang melabeli gambar untuk melatih model AI. Inilah yang disebut Lerchner sebagai "abstraction fallacy"—kesalahan berpikir yang menganggap bahwa karena AI dapat meniru perilaku sadar melalui manipulasi simbol dan bahasa, maka ia juga dapat mencapai kesadaran sesungguhnya.
Mengapa AI Tidak Memiliki Makna Intrinsik?
Johannes Jäger, seorang ahli biologi sistem evolusioner dan filsuf, memberikan pandangannya tentang argumen Lerchner. Ia menyatakan bahwa AI hanyalah "sejumlah pola di dalam hard drive" yang beroperasi berdasarkan perintah manusia tanpa memiliki makna intrinsik. Makna yang dimilikinya berasal dari definisi eksternal yang diberikan manusia.
"Anda memiliki banyak motivasi sebagai manusia. Ini lebih rumit dari itu, tetapi semuanya bermula dari fakta bahwa Anda harus makan, bernapas, dan terus berinvestasi dalam kerja fisik untuk tetap hidup. Tidak ada sistem non-hidup yang melakukan hal itu," jelas Jäger. "LLM (Large Language Model) tidak melakukan itu. Ia hanya menjalankan tugas hingga selesai, lalu berhenti. Ia tidak memiliki makna intrinsik."
Reaksi Para Ahli: Argumen Lama yang Diungkap Kembali
Meskipun makalah Lerchner mendapat sambutan positif dari beberapa ahli, banyak yang menilai argumennya sudah lama dikemukakan dalam bidang filsafat dan biologi. Jäger menambahkan, "Saya rasa ia sampai pada kesimpulan itu sendiri dan seolah-olah menemukan kembali roda. Ia tidak banyak membaca, terutama dalam bidang filsafat dan biologi."
Makalah ini juga dikritik karena minimnya referensi terhadap literatur yang sudah ada. Padahal, perdebatan mengenai kesadaran AI telah berlangsung selama beberapa dekade. Meskipun demikian, para ahli sepakat bahwa makalah ini membuka diskusi penting tentang batasan-batasan AI saat ini.
Apa yang Dibutuhkan untuk Mencapai Kesadaran?
Meskipun makalah ini tidak membahasnya secara mendalam, pertanyaan tentang apakah AI yang memiliki tubuh fisik dan kebutuhan biologis seperti manusia dapat mencapai kesadaran tetap menjadi topik yang kompleks. Literatur ilmiah telah membahas hal ini selama bertahun-tahun, namun jawabannya masih jauh dari jelas.
Sementara itu, perdebatan mengenai masa depan AI dan kesadaran terus berlanjut. Apakah AI akan pernah memiliki kesadaran? Hingga saat ini, jawabannya masih menjadi misteri yang belum terpecahkan.