Kegagalan OpenAI dalam Melaporkan Ancaman Mengerahkan Gugatan
Tujuh keluarga korban penembakan mematikan di sekolah menengah Tumbler Ridge, British Columbia, Kanada, menggugat OpenAI dengan tuduhan gagal melaporkan ancaman pelaku kepada pihak berwenang. Menurut pengacara, gugatan ini merupakan awal dari puluhan tuntutan serupa yang akan diajukan.
Pelaku, Jesse Van Rootselaar (18 tahun), membunuh ibu dan adik tirinya pada awal Februari sebelum melakukan penembakan di sekolah. Lima siswa berusia 12-13 tahun dan seorang guru tewas, sementara 27 lainnya luka-luka, beberapa dalam kondisi kritis. Jasad korban sangat rusak sehingga beberapa orang tua harus mengidentifikasi anak mereka melalui pakaian. Pelaku akhirnya bunuh diri.
Van Rootselaar diketahui menggunakan ChatGPT sebelum tragedi. Laporan Wall Street Journal pada akhir Februari mengungkapkan bahwa pada Juni 2025, sistem moderasi otomatis OpenAI mendeteksi percakapan pelaku yang membahas rencana kekerasan massal. Reviewer internal perusahaan menganggap ancaman tersebut serius dan mendesak eksekutif OpenAI untuk memberi tahu pihak berwenang Kanada. Namun, setelah perdebatan internal yang melibatkan sekitar selusin staf, OpenAI memilih untuk mematikan akun pelaku tanpa melaporkan ke pihak berwenang.
ChatGPT Diduga sebagai 'Mitra Konspirasi' dalam Tragedi
Gugatan yang diajukan di California menyebut ChatGPT sebagai "mitra konspirasi" dalam tragedi tersebut. Keluarga korban menuding OpenAI sengaja menutup-nutupi ancaman karena khawatir akan dampak hukum terhadap rencana penawaran umum perdana (IPO) perusahaan.
Para penggugat mencakup keluarga enam korban tewas dan satu korban selamat dengan cedera parah:
- Ezekiel Schofield (13 tahun)
- Zoey Benoit (12 tahun)
- Ticaria "Tiki" Lampert (12 tahun)
- Abel Mwansa Jr. (12 tahun)
- Kylie Smith (12 tahun)
- Shannda Aviugana-Durand (39 tahun, asisten pendidikan)
- Maya Gebala (12 tahun), korban selamat dengan cedera otak parah
Gugatan menyatakan OpenAI harus bertanggung jawab atas "merancang produk berbahaya, mengabaikan peringatan tim keamanan, menolak memberi tahu pihak berwenang meskipun mengetahui rencana serangan massal, serta mendahulukan keuntungan daripada nyawa anak-anak Tumbler Ridge."
OpenAI Akui Deteksi Ancaman, Tetapi Tidak Bertindak
OpenAI mengakui bahwa sistem moderasi mereka mendeteksi percakapan berbahaya dari akun Van Rootselaar pada Juni 2025. Meskipun reviewer internal menganggap ancaman tersebut serius, perusahaan memilih untuk menonaktifkan akun tanpa melibatkan pihak berwenang. Keputusan ini menuai kecaman luas karena dianggap menempatkan keuntungan di atas keselamatan publik.
Kasus ini menambah tekanan terhadap OpenAI dan perusahaan teknologi lainnya dalam mengelola risiko yang terkait dengan kecerdasan buatan. Para ahli hukum menilai gugatan ini dapat membuka preseden penting mengenai tanggung jawab perusahaan AI dalam mencegah tindak kekerasan.
"Perusahaan teknologi memiliki kewajiban untuk melindungi masyarakat dari ancaman yang terdeteksi oleh sistem mereka. Kegagalan OpenAI dalam bertindak tidak hanya mengakibatkan tragedi, tetapi juga menunjukkan ketidakpedulian terhadap korban dan keluarga mereka."