Sebuah proyek eksperimental bernama Halupedia tengah viral karena menyajikan konten yang sepenuhnya dihasilkan oleh hallucination AI—teknik di mana model kecerdasan buatan menciptakan informasi yang tidak nyata namun disajikan seolah-olah benar. Mirip Wikipedia, situs ini memungkinkan pengguna untuk mencari atau mengklik tautan yang akan memunculkan artikel baru secara otomatis, seolah-olah ensiklopedia tersebut memiliki konten tak terbatas.

Para pengembangnya menyebut Halupedia sebagai "ensiklopedia tak terbatas" yang "menciptakan semuanya secara instan". Setiap pencarian atau tautan yang diklik akan menjadi prompt bagi model AI di belakang layar, yang kemudian menghasilkan artikel dengan gaya bahasa datar layaknya penerbitan ilmiah abad ke-19. "Setiap tautan mengarah ke entri yang belum ada—hingga Anda mengkliknya," tulis deskripsi di GitHub. Meskipun homepage-nya secara terbuka menyatakan sebagai eksperimen fiksi AI, begitu pengguna masuk ke dalam salah satu entri, situs ini terasa seperti basis data pengetahuan yang nyata—setidaknya jika seseorang bersedia menutup mata terhadap banyaknya ketidaklogisan yang disuguhkan.

Konten Palsu dengan Gaya Akademis

Halupedia tidak hanya menghadirkan tautan, kutipan, dan referensi palsu, tetapi juga menyertakan catatan kaki yang sama sekali tidak nyata. Salah satu artikel terpopuler berjudul "Sensus Merpati Agung 1887", yang diklaim sebagai upaya ambisius oleh Royal Society for Avian Enumeration (RSFE) untuk menghitung setiap merpati batu berjambul emas di wilayah administratif Kerajaan Inggris Raya dan Irlandia. Artikel tersebut menyebutkan bahwa sensus ini diprakarsai oleh seorang "Sir Reginald Featherton", yang percaya bahwa penghitungan merpati sangat penting untuk "memahami alokasi sumber daya perkotaan suatu bangsa dan distribusi adil Krum Krum Parlemen".

Seperti artikel Wikipedia pada umumnya, nama-nama tokoh atau organisasi dalam Halupedia juga dapat diklik untuk membuka artikel lain. Pengguna bahkan bisa membuat entri baru melalui kotak pencarian, dan situs ini akan menampilkan serangkaian judul artikel palsu berdasarkan kata kunci yang dimasukkan. Misalnya, pencarian dengan kata "bullsh*t" menghasilkan opsi seperti "Mandat Gnosis tentang Alasan Melingkar". Setelah diklik, situs akan menampilkan pesan "menyelesaikan perselisihan akademis kecil" sebelum akhirnya menampilkan artikel fiktif yang terlihat otoritatif.

Upaya Menjaga Konsistensi dalam Ketidaklogisan

Meskipun kontennya penuh dengan ketidaklogisan, para pengembang Halupedia berusaha menjaga konsistensi "lore" atau alur cerita, mirip dengan cara penggemar fiksi media menjaga kanon. Mereka menciptakan fitur write-forward yang menyematkan metadata tersembunyi pada tautan menuju artikel masa depan. Metadata ini berisi "fakta kanon" seperti tanggal penting yang harus diikuti oleh AI. "Model bahasa besar (LLM) diperintahkan untuk memahami bahwa ensiklopedia ini adalah fiksi dan absurd, tetapi tidak boleh saling bertentangan," jelas halaman GitHub proyek tersebut.

Meski demikian, sistem ini tidak sempurna. Artikel tentang Royal Society for Avian Enumeration, misalnya, menyebutkan organisasi tersebut bubar pada tahun 1927, padahal artikel "Sensus Merpati Agung 1887" yang terhubung menyebutkan pembubaran pada tahun 1891. Ketidakkonsistenan semacam ini menunjukkan bahwa meskipun upaya dilakukan untuk menjaga alur cerita, AI tetap memiliki keterbatasan dalam mempertahankan konsistensi.

Tantangan Konten Ekstrem dan Dampak Sosial

Sayangnya, seperti banyak eksperimen internet yang tidak diatur, Halupedia juga menjadi sarang konten ekstrem. Beberapa artikel teratas di situs ini mengandung referensi rasis dalam judulnya. Meskipun demikian, AI di balik Halupedia tampaknya tidak memahami atau merespons secara kritis terhadap konten-konten tersebut, karena sistem ini hanya fokus pada pembuatan konten baru tanpa filter moral atau etika.

Proyek ini menjadi sorotan sebagai contoh menarik tentang bagaimana AI dapat menciptakan realitas alternatif yang terlihat meyakinkan, tetapi sama sekali tidak berdasar. Halupedia tidak hanya menantang konsep kebenaran dalam dunia digital, tetapi juga membuka diskusi tentang tanggung jawab pengembang dalam mengontrol output AI yang berpotensi merugikan.

Sumber: Futurism