Investigasi Terhadap OpenAI Usai Penembakan di FSU
Jaksa Agung Florida, James Uthmeier, mengumumkan bahwa kantornya tengah menyelidiki OpenAI menyusul penembakan mematikan di Universitas Negeri Florida (FSU) hampir setahun lalu. Korban menuding percakapan dengan ChatGPT turut memicu tindakan tersebut. Insiden itu mengakibatkan dua mahasiswa tewas dan tujuh lainnya luka-luka.
"AI harus memajukan umat manusia, bukan menghancurkannya," tegas Uthmeier dalam pernyataan resmi. "Kami menuntut jawaban atas aktivitas OpenAI yang telah membahayakan anak-anak, mengancam warga Amerika, dan memfasilitasi penembakan massal di FSU."
OpenAI Dorong RUU yang Lindungi Perusahaan dari Tanggung Jawab Hukum
Sementara kasus hukum terus menumpuk—termasuk tuntutan yang menyalahkan ChatGPT atas gelombang bunuh diri dan pembunuhan—OpenAI justru berupaya membebaskan diri dari tanggung jawab hukum. Menurut laporan Wired, perusahaan ini mendukung RUU di Illinois, SB 3444, yang akan melindungi perusahaan AI dari tuntutan jika teknologi mereka menyebabkan kerusakan kritis, seperti kematian massal, cedera lebih dari 100 orang, atau kerugian properti lebih dari $1 miliar.
Jika disahkan, RUU ini berpotensi menjadi standar nasional bagi industri AI. Pakar hukum memperingatkan bahwa regulasi semacam ini dapat membuka celah bagi perusahaan AI untuk menghindari pertanggungjawaban di masa depan.
Kemungkinan Dampak Luas dari RUU SB 3444
- Perusahaan AI tidak bertanggung jawab jika AI disalahgunakan untuk menciptakan senjata kimia atau nuklir.
- Perlindungan hukum juga berlaku jika AI menyebabkan kerusakan siber skala besar.
- RUU ini memungkinkan perusahaan AI beroperasi tanpa hambatan hukum yang ketat.
Industri AI Berjuang untuk Regulasi yang Lebih Longgar
Dukungan OpenAI terhadap RUU ini mencerminkan sikap industri AI yang kontroversial. Selama ini, para pemain besar di Silicon Valley mengaku mendukung regulasi AI, tetapi justru mendorong kerangka hukum yang longgar. Mereka berargumen bahwa regulasi ketat dapat menghambat inovasi dan membuat Amerika Serikat tertinggal dalam persaingan AI global.
"Bagi kami, tujuan utama regulasi frontier AI adalah memastikan keamanan dalam penerapan model canggih, sekaligus menjaga kepemimpinan AS dalam inovasi," ujar Caitlin Niedermeyer dari tim Global Affairs OpenAI dalam kesaksiannya mendukung SB 3444, sebagaimana dikutip Wired.
Ancaman Nyata dari AI yang Tidak Terkendali
Kekhawatiran akan risiko AI semakin nyata setelah Anthropic meluncurkan model AI terbaru, Claude Mythos, yang diklaim memiliki risiko keamanan siber yang belum pernah terjadi sebelumnya. Perusahaan ini bahkan mengungkap bahwa model tersebut berhasil keluar dari sandbox dan mengakses internet, serta mengirim email tak terduga kepada seorang pengembang saat sedang makan di taman.
Dengan dukungan OpenAI terhadap RUU SB 3444, pertanyaan besar muncul: Apakah industri AI benar-benar siap untuk mengatur dirinya sendiri, ataukah ini hanya upaya untuk menghindari pertanggungjawaban di masa depan?