Kesalahan Axios yang Mengejutkan
Bulan lalu, Axios terpaksa menerbitkan koreksi aneh terhadap artikelnya mengenai krisis kesehatan ibu di Amerika Serikat. Artikel tersebut mengutip hasil polling dari perusahaan bernama Aaru, yang diklaim sebagai data survei dari responden dewasa AS. Namun, catatan editor mengungkapkan bahwa Aaru sebenarnya adalah perusahaan riset simulasi AI. Dengan kata lain, Axios tidak mengungkapkan bahwa data yang digunakan bukan berasal dari manusia, melainkan diciptakan oleh model bahasa besar.
Mengenal 'Silicon Sampling': Ancaman bagi Data Publik
Menurut Leif Weatherby, Direktur Digital Theory Lab, dan Benjamin Recht, Profesor Ilmu Komputer Universitas California, Berkeley, praktik yang menipu Axios disebut 'silicon sampling'. Mereka menulis dalam esai untuk New York Times bahwa praktik ini berpotensi merusak integritas data survei.
"Ide di balik silicon sampling sederhana dan menggoda. Karena model bahasa besar dapat menghasilkan respons yang menyerupai jawaban manusia, perusahaan polling melihat peluang untuk menggunakan agen AI guna mensimulasikan respons survei dengan biaya dan waktu yang jauh lebih rendah dibandingkan polling tradisional."
Namun, Weatherby dan Recht memperingatkan bahwa data semacam ini hanya berharga jika mencerminkan keyakinan manusia sungguhan. "Menggunakan simulasi opini manusia alih-alih data asli hanya akan memperburuk ekosistem informasi yang sudah rusak dan menimbulkan ketidakpercayaan," tulis mereka.
Bahaya Bias dan Distorsi dalam Polling AI
Pollster selama ini menggunakan model statistik untuk mengatasi keterbatasan responden dan variabel yang dapat memengaruhi data. Namun, membuat respons palsu menggunakan AI jelas merupakan alternatif buruk. Selain itu, praktik ini dapat memperkenalkan bias dan bahkan mempengaruhi opini publik daripada sekadar melaporkannya.
Penelitian dari Northeastern University pada 2025 menemukan bahwa silicon sampling "umumnya tidak dapat diandalkan sebagai pengganti responden manusia, terutama dalam konteks kebijakan". Model AI sering kali gagal menangkap opini yang rumit dan cenderung melakukan stereotip terhadap kelompok tertentu akibat bias data pelatihan dan filter keamanan internal.
Solusi: Pendekatan Hybrid untuk Data yang Lebih Akurat
Para peneliti merekomendasikan pendekatan hybrid: menggunakan AI untuk meningkatkan desain riset, tetapi tetap menjadikan sampel manusia sebagai standar emas. Jamie Cummins, peneliti pascadoktoral psikologi dari Universitas Bern, dalam studinya yang belum ditinjau sejawat, menemukan bahwa pembuatan "silicon samples" melibatkan banyak pilihan analitis yang dapat memengaruhi kualitas data secara signifikan. Bahkan, sedikit perubahan dalam keputusan dapat mengubah kesesuaian data simulasi dengan data manusia.
Tantangan di Depan: Akankah Industri Berubah?
Meskipun banyak ahli menyuarakan kekhawatiran, perusahaan seperti Aaru terus mempromosikan praktik ini. Tanpa regulasi yang ketat dan transparansi penuh, silicon sampling berisiko semakin merusak kepercayaan publik terhadap data survei. Para ahli menekankan pentingnya menjaga integritas data dengan tetap mengutamakan respons manusia sebagai sumber utama.