Influencer Palsu yang Menipu Ribuan Orang

Media sosial telah lama menjadi sarang akun-akun palsu, mulai dari catfish hingga bot. Namun, kasus terbaru yang melibatkan seorang perempuan bernama Emily Hart, seorang influencer pro-Trump dengan jutaan penonton, ternyata menyimpan rahasia besar.

Setelah diselidiki, ternyata Emily Hart bukanlah perempuan Amerika yang ia gembar-gemborkan. Ia adalah seorang mahasiswa kedokteran laki-laki berusia 22 tahun asal India. Dengan foto, video, dan ribuan pengikut di berbagai platform, Emily berhasil membangun citra sebagai influencer yang sukses—hingga ia akhirnya mengakui kebenarannya kepada Wired.

Dari Hobi Menjadi Bisnis Menggiurkan

Pencipta Emily Hart mengaku bahwa selama akun tersebut aktif, ia menghasilkan ribuan dolar setiap bulan. Kontennya berupa video softcore yang diunggah ke platform mirip OnlyFans serta penjualan merchandise. Yang mengejutkan, ia bukanlah seorang pengembang atau ahli teknologi, melainkan seorang mahasiswa yang memanfaatkan Google Gemini untuk menciptakan konten palsu.

Kisah Emily Hart bukanlah kasus tunggal. Ada banyak akun serupa yang tersebar di media sosial, terutama di kalangan influencer politik. Contoh lain adalah Jessica Foster, seorang influencer pro-Trump palsu lainnya. Bahkan, tanpa mencari jauh-jauh, pengguna Instagram dapat dengan mudah menemukan konten yang dihasilkan AI di halaman Explore.

Mengapa Sistem Deteksi AI Gagal?

Platform media sosial memiliki kebijakan untuk mengatur konten AI. Umumnya, mereka mewajibkan pengungkapan jika konten tersebut bersifat sintetis, terutama untuk topik sensitif seperti politik, kesehatan, keuangan, dan berita terkini. Jika tidak diungkapkan, akun tersebut dapat dibekukan, didemonetisasi, atau bahkan dihapus. Namun, dalam praktiknya, kebijakan ini sulit ditegakkan.

Salah satu alasannya adalah kemajuan teknologi AI yang begitu pesat. Generator gambar modern kini mampu menghasilkan konten yang hampir sempurna, tanpa cacat seperti jari ekstra atau latar belakang yang hilang. Tanpa tanda air (watermark) yang jelas, bahkan sistem otomatis pun kesulitan membedakan mana konten asli dan mana yang palsu.

Standar Baru yang Tak Terlaksana: Content Credentials

Untuk mengatasi masalah ini, diperkenalkanlah Content Credentials—sebuah standar yang melacak asal-usul dan modifikasi sebuah gambar sepanjang siklus hidupnya. Informasi ini dapat disimpan dalam metadata gambar, sehingga platform dapat lebih mudah mendeteksi konten palsu.

Sayangnya, standar ini masih jarang diterapkan. Banyak platform media sosial belum mengintegrasikan Content Credentials secara menyeluruh. Akibatnya, pengguna sering kali tidak menyadari bahwa mereka sedang melihat konten yang dihasilkan AI.

Siapa yang Bertanggung Jawab?

Pertanyaan besar muncul: Siapa yang seharusnya melindungi pengguna dari konten palsu? Platform media sosial, pemerintah, ataukah pengguna itu sendiri? Saat ini, tanggung jawab tersebar dan tidak jelas. Meskipun ada upaya untuk meningkatkan transparansi, seperti pelabelan konten AI, implementasinya masih jauh dari sempurna.

Tanpa tindakan tegas, kasus seperti Emily Hart akan terus berulang. Pengguna media sosial perlu lebih waspada dan kritis terhadap konten yang mereka konsumsi. Sementara itu, platform dan regulator harus segera mengambil langkah untuk memperkuat sistem deteksi dan penegakan kebijakan.

"AI telah membuat penipuan di media sosial semakin mudah dilakukan. Tanpa sistem yang kuat untuk mendeteksi dan mengungkapkannya, pengguna akan terus menjadi korban."