Industri kecerdasan buatan (AI) saat ini tengah memusatkan hampir seluruh sumber daya penelitian dan pengembangan (R&D) serta investasi modalnya pada satu keyakinan: model transformer yang telah dilatih sebelumnya dapat menghadirkan AI dengan tingkat kecerdasan setara manusia atau yang dikenal sebagai Artificial General Intelligence (AGI).

Pendekatan ini sangat bergantung pada backpropagation, algoritma standar yang digunakan untuk melatih jaringan saraf dalam (deep neural networks). Namun, Ben Goertzel, yang pertama kali memperkenalkan istilah AGI melalui bukunya Artificial General Intelligence (2005), memiliki pandangan skeptis terhadap strategi ini.

“Industri AI komersial saat ini hanya berfokus untuk meniru model GPT dalam berbagai variasi. Menurut saya, ini adalah pemborosan sumber daya karena semua model bahasa besar (LLM) yang ada saat ini pada dasarnya melakukan hal yang sama,” ujar Goertzel.

Ia menambahkan, “Ketika sesuatu terbukti berhasil, semua orang ingin terus meningkatkan dan memperluas apa yang telah berhasil. Namun, konsentrasi sumber daya pada satu paradigma saja bisa sangat berisiko.”

Keterbatasan Model Transformer dalam Mencapai AGI

Model transformer membutuhkan biaya komputasi miliaran dolar untuk pelatihan, ditambah sumber daya komputasi besar secara berkelanjutan untuk operasionalnya. Meskipun laboratorium AI besar terus melihat peningkatan kecerdasan dengan menambah data dan komputasi, skala yang semakin besar justru membuat biaya semakin mahal. Pada titik tertentu, biaya tersebut mungkin tidak lagi sebanding dengan manfaat yang diperoleh.

Goertzel menekankan bahwa skala saja tidak cukup tanpa algoritma yang tepat. Menurutnya, salah satu kelemahan utama model transformer adalah ketidakmampuannya untuk terus belajar dari pengalaman baru dan memperbarui parameter internal secara real-time layaknya manusia. Sebaliknya, model ini kembali ke parameter dasar pada setiap interaksi baru tanpa benar-benar belajar dari percakapan sebelumnya.

Alternatif yang Sedang Dieksplorasi

Beberapa peneliti dari Google DeepMind, Microsoft, dan Safe Superintelligence milik Ilya Sutskever tengah meneliti arsitektur jaringan saraf alternatif yang memungkinkan pembelajaran berkelanjutan. Goertzel mengakui bahwa DeepMind memiliki keragaman tim AI yang luar biasa serta pengalaman dalam paradigma AI alternatif.

“Hasilnya adalah lanskap AI di mana sumber daya komputasi besar-besaran saat ini lebih banyak digunakan untuk menyempurnakan metode yang ada daripada mengeksplorasi arsitektur fundamental yang mungkin lebih sesuai untuk mencapai generalisasi tingkat manusia yang diperlukan bagi AGI,” jelasnya.

Optimisme terhadap Masa Depan AGI

Meskipun skeptis terhadap ketergantungan pada model transformer, Goertzel tetap optimis bahwa AGI dapat terwujud dalam beberapa tahun ke depan. Ia percaya bahwa terobosan besar akan datang dari pendekatan yang melampaui sekadar penskalaan model bahasa besar saat ini.

Sementara itu, startup AI asal Tokyo, Sakana AI, baru-baru ini meluncurkan produk komersial pertamanya, Sakana Fugu, setelah masa pengembangan yang relatif tenang sejak didirikan pada 2023 oleh Llion Jones—salah satu dari sembilan penemu model transformer—bersama David Ha, mantan peneliti Google DeepMind.

Fugu merupakan sistem orkestrasi multi-agen yang dirancang untuk mengkoordinasikan beberapa model dasar terdepan (foundation models) dari berbagai penyedia seperti OpenAI, Google, dan Anthropic. Langkah ini menunjukkan upaya untuk mengeksplorasi cara-cara baru dalam mengoptimalkan potensi AI di luar batasan model transformer tradisional.