Kesalahan AI yang Menghancurkan Kehidupan
Pada 20 Oktober 2025, Taki Allen, seorang siswa berusia 17 tahun di Baltimore, duduk di luar sekolahnya seusai latihan sepak bola. Sebuah kamera pengawas yang diperkuat AI salah mengidentifikasi kantong Doritos di sakunya sebagai pistol. Dalam hitungan menit, mobil polisi tiba, petugas mengeluarkan senjata, dan memaksa Allen berlutut serta mengenakan borgol. Setelah diperiksa, yang ditemukan hanya kantong keripik yang kusut. Kesalahan identifikasi AI dan keputusan manusia berikutnya mengubah malam biasa menjadi konfrontasi traumatis.
Pada 24 Desember 2025, Angela Lipps, seorang nenek dari Tennessee, dibebaskan setelah lima bulan mendekam di penjara. Alasannya: perangkat lunak pengenalan wajah salah menghubungkannya dengan kasus penipuan di North Dakota—negara yang tidak pernah ia kunjungi. Ia ditangkap dengan todongan senjata saat sedang menjaga empat cucunya. Dua kasus ini menunjukkan bagaimana AI, meski dirancang untuk membantu, justru menimbulkan dampak buruk akibat kesalahan teknis dan kepercayaan berlebihan manusia terhadap sistem tersebut.
AI dalam Polisi: Dari Prediksi Menjadi Kepastian
Kami adalah peneliti yang mempelajari hubungan antara teknologi, hukum, dan administrasi publik. Dalam studi kami mengenai penggunaan AI oleh kepolisian dan operasional teknologi digital dalam masyarakat demokratis, kami menemukan bahwa pergeseran dari prediksi probabilistik menjadi kepastian operasional terjadi dengan sangat cepat. Sistem AI yang digunakan di puluhan kota AS mengolah data historis kejahatan untuk menilai tingkat risiko suatu wilayah. Petugas kemudian diarahkan ke lokasi-lokasi yang dianggap "berisiko tinggi".
Namun, mekanisme sederhana ini menyimpan konsekuensi yang kompleks. Begitu sistem memberi sinyal potensi ancaman, pertanyaan bukan lagi seberapa akurat prediksi tersebut, melainkan tindakan apa yang harus diambil. Sebuah output statistik berubah menjadi keputusan operasional, dan ketidakpastian yang melatarbelakanginya hilang di tengah proses. Akibatnya, masyarakat yang seharusnya dilindungi justru menjadi korban kesalahan sistem.
AI Bukanlah Sumber Kebenaran, Melainkan Prediksi
Ketika model AI generatif seperti ChatGPT atau Claude menjawab pertanyaan manusia, mereka tidak mencari fakta di database. Mereka memprediksi jawaban yang paling mungkin berdasarkan pola data yang pernah mereka pelajari. Misalnya, saat ditanya "Siapa penemu bola lampu?", model AI akan menghasilkan jawaban probabilistik: "Thomas Edison". Meskipun jawaban ini mungkin benar, ia tidak mencerminkan keseluruhan cerita—seperti penemuan paralel oleh Joseph Swan pada waktu yang sama.
Bahaya muncul ketika manusia meyakini bahwa model AI tidak hanya menghasilkan kemungkinan, tetapi juga kebenaran yang terverifikasi. Perbedaan ini krusial. Jawaban yang paling mungkin bukanlah fakta yang telah diverifikasi, lengkap dengan konteksnya. Dalam kasus polisi, kepercayaan buta terhadap AI dapat berujung pada tindakan represif yang merugikan warga tak bersalah.
Contoh Nyata Dampak AI dalam Penegakan Hukum
- Kesalahan Identifikasi Senjata: Kamera AI di Baltimore salah menafsirkan kantong keripik sebagai pistol, menyebabkan penahanan paksa terhadap Taki Allen.
- Kesalahan Pengenalan Wajah: Perangkat lunak pengenalan wajah di Tennessee salah mengidentifikasi Angela Lipps sebagai pelaku penipuan di negara bagian lain, menyebabkan penahanan selama lima bulan.
- Penggunaan Data Historis yang Bias: Sistem AI yang mengolah data kejahatan masa lalu cenderung memperkuat bias yang sudah ada, mengarah pada diskriminasi terhadap kelompok tertentu.
Mengapa Kesalahan AI dalam Polisi Sulit Dihindari?
AI dalam sistem kepolisian sering kali dilatih dengan data yang tidak representatif atau mengandung bias historis. Misalnya, jika suatu wilayah pernah memiliki tingkat kejahatan tinggi, sistem AI akan menandai wilayah tersebut sebagai "berisiko", meskipun kondisi saat ini sudah berubah. Selain itu, kepercayaan berlebihan terhadap teknologi ini membuat petugas polisi cenderung mengabaikan akal sehat dan prosedur standar dalam menangani situasi.
Kesalahan dalam sistem AI tidak hanya bersifat teknis, tetapi juga etis. Ketika masyarakat kehilangan kepercayaan terhadap institusi penegak hukum akibat kesalahan teknologi, dampaknya bisa sangat luas—termasuk meningkatnya ketegangan sosial dan hilangnya legitimasi lembaga kepolisian.
Apa yang Bisa Dilakukan?
Untuk mengurangi risiko kesalahan AI dalam penegakan hukum, beberapa langkah dapat diambil:
- Transparansi dan Akuntabilitas: Sistem AI yang digunakan oleh kepolisian harus terbuka untuk diaudit secara independen. Data yang digunakan untuk melatih model harus diverifikasi agar tidak mengandung bias.
- Pelatihan bagi Petugas: Petugas polisi perlu diberikan pemahaman yang lebih baik mengenai keterbatasan AI. Mereka harus dilatih untuk tidak menjadikan output AI sebagai kepastian mutlak, melainkan sebagai salah satu pertimbangan dalam pengambilan keputusan.
- Partisipasi Masyarakat: Masyarakat harus dilibatkan dalam pengawasan penggunaan AI oleh kepolisian. Mekanisme pengaduan dan evaluasi publik harus tersedia untuk memastikan sistem berfungsi sesuai dengan prinsip-prinsip keadilan.
- Regulasi yang Ketat: Pemerintah perlu menetapkan standar yang jelas mengenai penggunaan AI dalam penegakan hukum, termasuk larangan terhadap sistem yang terbukti diskriminatif atau tidak akurat.
"AI bukanlah solusi ajaib untuk masalah keamanan. Ia hanya alat yang sebaiknya digunakan dengan hati-hati, transparansi, dan pertanggungjawaban yang tinggi."
Kesimpulan: AI dalam Polisi Harus Diatur dengan Bijak
Kasus-kasus seperti yang dialami Taki Allen dan Angela Lipps menunjukkan bahwa AI dalam sistem kepolisian tidak selalu membawa kemajuan, melainkan juga risiko yang serius. Kesalahan teknologi yang dikombinasikan dengan kepercayaan buta manusia terhadap sistem dapat berujung pada ketidakadilan dan trauma bagi masyarakat.
Untuk mencegah hal ini, diperlukan pendekatan yang lebih bijak dalam penggunaan AI—mulai dari transparansi data hingga regulasi yang ketat. Hanya dengan demikian, teknologi ini dapat benar-benar memberikan manfaat tanpa mengorbankan prinsip-prinsip keadilan dan hak asasi manusia.