Mengapa Ukuran Model AI Masih Menjadi Fokus?

Dalam dunia kecerdasan buatan (AI), ukuran model memang menjadi faktor penting. Meskipun beberapa ahli memperingatkan bahwa peningkatan skala model bahasa besar (LLM) mulai menunjukkan penurunan kinerja yang semakin kecil, perusahaan teknologi terus meluncurkan model AI yang semakin besar. Contoh terbaru adalah Meta dengan rilis Llama terbarunya yang memiliki 2 triliun parameter.

Semakin besar model AI, semakin tinggi pula kemampuannya. Namun, hal ini juga meningkatkan konsumsi energi, waktu pemrosesan, dan jejak karbon yang dihasilkan. Untuk mengatasi masalah ini, banyak pihak beralih ke model yang lebih kecil atau menggunakan angka presisi rendah pada parameter model. Namun, ada pendekatan lain yang lebih efisien: memanfaatkan sifat sparsitas dalam model AI.

Apa Itu Sparsitas dalam AI?

Sparsitas merujuk pada kondisi di mana sebagian besar parameter dalam model AI—baik bobot maupun aktivasi—bernilai nol atau mendekati nol. Alih-alih melakukan perhitungan yang sia-sia dengan menambahkan atau mengalikan nol, perhitungan ini dapat diabaikan. Selain itu, penyimpanan parameter juga dapat dioptimalkan dengan hanya menyimpan nilai non-nol.

Tingkat sparsitas bervariasi. Jika lebih dari 50% elemen dalam suatu vektor, matriks, atau tensor bernilai nol, model tersebut dapat dioptimalkan menggunakan metode komputasi khusus untuk sparsitas. Sebaliknya, jika sebagian besar elemen bernilai non-nol, model tersebut disebut dense (padat).

Sparsitas dapat muncul secara alami atau sengaja diciptakan. Misalnya, dalam grafik jejaring sosial, sebagian besar hubungan antar pengguna tidak ada, sehingga matriks yang merepresentasikan hubungan tersebut sebagian besar berisi nol. Contoh lain adalah dalam aplikasi AI seperti rekomendasi produk atau deteksi penipuan, di mana sebagian besar data tidak relevan.

Mengapa Perangkat Keras Saat Ini Tidak Optimal?

Perangkat keras konvensional seperti CPU multicore dan GPU tidak dirancang untuk memanfaatkan sparsitas secara maksimal. Mereka tetap melakukan perhitungan penuh, termasuk pada nilai nol, yang menyebabkan pemborosan energi dan waktu. Untuk mengatasi hal ini, para peneliti dan insinyur perlu mendesain ulang seluruh tumpukan teknologi, mulai dari perangkat keras, firmware tingkat rendah, hingga perangkat lunak aplikasi.

Inovasi Perangkat Keras untuk AI yang Lebih Efisien

Sebuah tim peneliti dari Universitas Stanford telah mengembangkan perangkat keras pertama yang mampu menghitung berbagai jenis beban kerja sparsitas dan tradisional secara efisien. Dalam pengujian, chip buatan mereka menunjukkan penghematan energi rata-rata 1/70 dari konsumsi CPU dan kecepatan komputasi rata-rata delapan kali lebih cepat.

Untuk mencapai hasil ini, tim tersebut merancang perangkat keras, firmware tingkat rendah, dan perangkat lunak dari awal untuk memanfaatkan sparsitas. Mereka berharap inovasi ini menjadi awal dari pengembangan perangkat keras dan model AI yang lebih hemat energi di masa depan.

Bagaimana Cara Kerja Perangkat Keras Ini?

Perangkat keras ini dirancang khusus untuk mengidentifikasi dan melewatkan perhitungan pada nilai nol, sehingga mengurangi beban kerja yang tidak perlu. Dengan demikian, konsumsi energi dan waktu pemrosesan dapat ditekan secara signifikan tanpa mengorbankan akurasi model.

Masa Depan AI yang Lebih Berkelanjutan

Inovasi ini membuka jalan bagi pengembangan AI yang lebih efisien dan ramah lingkungan. Dengan memanfaatkan sparsitas, model AI dapat tetap mempertahankan kinerja tinggi sambil mengurangi jejak karbon dan biaya operasional. Para peneliti berharap pendekatan ini dapat diadopsi secara luas oleh industri untuk menciptakan AI yang lebih berkelanjutan.