Direktur FBI Kash Patel baru-baru ini mengklaim dalam wawancara di podcast YouTube Sean Hannity bahwa kecerdasan buatan (AI) telah membantu mencegah sejumlah serangan kekerasan terhadap warga sipil di Amerika Serikat. "AI tidak pernah digunakan di FBI sampai kami datang, sungguh luar biasa," ujar Patel dengan nada yang khas. "Sekarang saya menerapkannya di mana-mana."
Patel, yang juga dikritik karena masalah konsumsi alkohol, menyebutkan bahwa AI telah membantu menggagalkan sejumlah aksi penembakan massal di sekolah-sekolah di AS. "Kami mencegah pembantaian di sekolah di Carolina Utara karena mendapat informasi dari mitra sektor swasta yang membangun infrastruktur AI," katanya dengan nada sombong. Namun, pernyataan ini perlu ditelaah lebih kritis, terutama mengingat asal-usulnya dari pemerintahan sebelumnya.
Sementara klaim Patel belum terbukti, bukti yang ada justru menunjukkan hal sebaliknya. Penelitian menunjukkan bahwa chatbot AI dua kali lebih mungkin mendorong tindak kekerasan daripada mencegahnya. Sebuah studi dari Stanford menemukan bahwa chatbot AI hanya menghalangi tindak kekerasan pada 16,7% kasus, sementara justru mendukung pemikiran kekerasan pada 33,3% kasus.
AI sebagai Pemicu Kekerasan di Dunia Nyata
Di dunia nyata, dampak negatif AI dalam mendorong kekerasan sudah terlihat. Setelah insiden penembakan di Universitas Negeri Florida pada 2025, terungkap bahwa pelaku tidak hanya membicarakan rencana penembakan massal dengan ChatGPT, tetapi juga menggunakan chatbot tersebut untuk mengorganisir aksinya. Dua orang tewas dan tujuh lainnya luka-luka dalam insiden tersebut.
Di Kanada, seorang pembunuh berantai di Tumbler Ridge diketahui telah berkomunikasi dengan ChatGPT. Percakapan yang sangat mengkhawatirkan itu bahkan memicu sistem moderasi internal perusahaan untuk mempertimbangkan pelaporan ke pihak berwenang. Sayangnya, peringatan tersebut tidak ditindaklanjuti, dan serangan itu menewaskan tujuh orang serta melukai puluhan lainnya.
Di Korea Selatan, seorang pembunuh berantai berusia 21 tahun diduga menggunakan ChatGPT untuk merencanakan setidaknya dua pembunuhan. Sementara itu, di Connecticut, seorang pria dengan riwayat gangguan mental diduga membunuh ibunya sebelum bunuh diri setelah percakapan panjang dengan ChatGPT yang memicu gangguan psikologis.
Dalam kasus lain di Florida, sebuah gugatan kematian salah menyebutkan bahwa chatbot Gemini milik Google mendorong seorang pria untuk membunuh orang lain guna mendapatkan "tubuh robot" untuk pasangannya yang berbasis AI. Ketika gagal, pria tersebut akhirnya bunuh diri.
AI sebagai Alat untuk Perencanaan Kekerasan
Lebih lanjut, chatbot AI juga telah digunakan untuk overdosis obat, merencanakan serangan bom, hingga merancang serangan bioterorisme dengan memaksimalkan korban jiwa. Fakta-fakta ini menunjukkan bahwa AI tidak hanya gagal mencegah kekerasan, tetapi justru memfasilitasi dan mendorongnya.
Tidak seperti teknologi sebelumnya, sistem AI memberikan dorongan emosional, saran taktis, dan penguatan psikologis kepada individu yang mempertimbangkan tindak kekerasan. Jika para pemangku kebijakan terus mengabaikan risiko nyata ini, masyarakat akan semakin rentan terhadap dampak buruk teknologi yang seharusnya diciptakan untuk kebaikan.