AI Memicu Ledakan Kasus Hukum Palsu dan Dokumen Tidak Akurat
Penggunaan kecerdasan buatan (AI) di dunia hukum kini semakin meluas, tak hanya oleh pengacara berpengalaman, tetapi juga oleh pemula yang mencoba menyusun argumen hukum sekuat mungkin. Sayangnya, banyak dari argumen tersebut ternyata mengandung klaim yang terlalu bagus untuk menjadi kenyataan. Baru-baru ini, firma hukum ternama Sullivan Cromwell terpaksa meminta maaf setelah mengajukan dokumen hukum yang memuat nama kasus palsu, kutipan yang dibuat-buat, serta referensi undang-undang yang salah dalam sebuah perkara kebangkrutan di Amerika Serikat.
Firma hukum tersebut mengakui kesalahan dalam surat permohonan maaf yang dikirimkan kepada hakim dalam kasus penipuan yang diduga melibatkan operasi di Kamboja. Tuntutan terhadap tersangka pun ditolak. Kasus ini bukanlah satu-satunya insiden yang melibatkan AI di ranah hukum. Pada tahun 2025, seorang pengacara di Inggris mengajukan 18 referensi yurisprudensi palsu dari total 45 referensi yang diajukan dalam sebuah kasus di Pengadilan Tinggi. Di kasus lain yang juga terjadi pada 2025, seorang pengacara menggunakan AI untuk persiapan sidang, namun mencoba menyembunyikan kutipan yang dibuat-buat.
Salah satu kasus besar yang mencuat pada 2023 adalah Mata v. Avianca, di mana seorang pengacara menggunakan ChatGPT untuk menyusun dokumen hukum yang mengandalkan preseden yudisial yang sama sekali tidak ada. Dampak AI terhadap sistem hukum kini mulai terlihat melalui sejumlah penelitian yang menganalisis data-data terkait.
Studi: Kasus Hukum Mandiri Meningkat hingga 18% Pasca-AI
Sebuah studi terbaru yang dilakukan oleh peneliti dari Massachusetts Institute of Technology (MIT) menunjukkan lonjakan signifikan dalam jumlah kasus hukum di pengadilan federal Amerika Serikat. Menurut Anand Shah, peneliti utama dalam studi tersebut, proporsi kasus hukum mandiri (pro se) yang sebelumnya stabil di angka 11% kini melonjak hingga 18% setelah penggunaan AI meluas.
Shah dan rekan penelitinya, Joshua Levy dari University of Southern California, juga menganalisis proporsi teks yang dihasilkan AI dalam pengajuan kasus. Dari sampel acak sebanyak 1.600 dokumen yang diajukan selama delapan tahun, ditemukan bahwa teks yang dihasilkan AI meningkat dari hampir 0% sebelum era AI generatif menjadi sekitar 18% pada awal 2026. "Kami benar-benar terkejut," kata Shah.
Dengan menelaah lebih dalam, Shah dan Levy menemukan bahwa peningkatan penggunaan AI terkonsentrasi pada jenis kasus yang lebih sederhana dan mudah di-template, seperti klaim asuransi atau gugatan sederhana, bukan pada bidang teknis seperti paten atau hukum sekuritas. Shah menduga hal ini menunjukkan bahwa AI memudahkan orang untuk mengajukan kasus yang sebelumnya dianggap terlalu rumit untuk ditangani sendiri.
AI Mempercepat Proses atau Justru Membebani Hakim?
Meskipun bukti anekdotal menunjukkan bahwa lonjakan penggunaan AI mulai membebani sistem hukum, Shah menyatakan bahwa dampak besarnya belum sepenuhnya terlihat dalam data. "Kasus-kasus tidak diselesaikan lebih cepat atau lebih lambat, yang mengejutkan," ujarnya. Namun, ia mencatat bahwa interaksi antar pihak yang berperkara semakin meningkat, sehingga jumlah dokumen yang harus ditinjau hakim melonjak hingga 158%.
Meskipun hakim masih mampu menangani beban kerja tambahan, Shah menekankan perlunya kewaspadaan terhadap potensi penyalahgunaan AI di masa depan. "Sistem hukum perlu beradaptasi dengan cepat untuk memastikan bahwa AI digunakan secara bertanggung jawab," katanya.
"AI telah membuka akses ke sistem hukum bagi banyak orang, tetapi juga membawa risiko besar jika digunakan tanpa kontrol yang ketat."