AI sebagai Senjata Baru dalam Fraud dan Pencurian Identitas

Para eksekutif perusahaan kini dihadapkan pada tantangan kompleks akibat perkembangan AI. Namun, ancaman terbesar datang dari fraud berbasis AI, yang semakin meningkat pesat. Para pelaku kejahatan kini memanfaatkan AI generatif untuk melakukan pencurian identitas massal dan penipuan otomatis dalam skala yang belum pernah terjadi sebelumnya.

Ini bukan lagi permainan kucing-kucingan yang berjalan lambat. Saat ini, serangan fraud telah menjadi perlombaan senjata berkecepatan tinggi. Untuk melindungi integritas sistem, para pemimpin perusahaan—terutama di sektor infrastruktur kritis—harus meninggalkan model pertahanan konvensional yang hanya melakukan penilaian risiko berkala. Mereka perlu beralih ke teknologi mutakhir yang memungkinkan sistem pertahanan untuk beradaptasi dalam hitungan hari, bukan bulan.

AI Generatif sebagai Pendorong Fraud

Fernanda Sottil, Direktur Strategi di Incode Technologies, menekankan bahwa jika bisnis sah menggunakan AI generatif untuk meningkatkan efisiensi, para pelaku kejahatan justru memanfaatkannya untuk memperbesar serangan mereka.

Dalam dua tahun terakhir, terjadi peningkatan luar biasa: identitas sintetis meningkat 100 kali lipat, sementara penipuan menggunakan deepfake naik tujuh kali lipat. Laporan Deloitte memperkirakan kerugian akibat fraud berbasis AI di AS bisa mencapai $40 miliar pada 2027, meningkat dari $12,3 miliar pada 2023.

Masalah ini tidak lagi terbatas pada ranah teknis belakang layar. Kini, fraud AI telah menjadi perhatian utama para pemimpin di bank, fintech, dan perusahaan telekomunikasi. Menurut laporan Experian, tiga perempat (72%) pemimpin bisnis memperkirakan fraud berbasis AI, termasuk deepfake, akan menjadi tantangan operasional terbesar pada 2026. Sementara itu, survei Incode pada 2025 menunjukkan bahwa 46% perusahaan mengalami peningkatan tahunan dalam kasus fraud deepfake dan AI generatif.

Dengan kemampuan untuk menyerang banyak korban secara bersamaan menggunakan sumber daya yang lebih sedikit, pelaku kejahatan kini memiliki keunggulan taktis yang signifikan. Perusahaan harus segera menemukan cara yang lebih efektif untuk membedakan antara kenyataan dan manipulasi sebelum serangan ini merusak kepercayaan, pendapatan, dan kontinuitas operasional.

Perlombaan Senjata Baru dalam Pertahanan Fraud

Pencegahan fraud selama ini ibarat permainan loncat katak. Namun, dengan hadirnya AI, perusahaan kini harus mengadopsi sistem pertahanan yang jauh lebih canggih untuk melawan pelaku kejahatan yang juga memiliki akses ke alat AI tanpa batasan hukum.

Menurut perkiraan, 80% fraud masih dapat dideteksi dengan mudah, sementara 20% sisanya memerlukan keahlian tingkat tinggi. Sayangnya, sebagian besar vendor gagal memenuhi standar ini. Pelaku fraud yang semakin canggih tidak hanya mampu memalsukan identitas, tetapi juga terhubung dalam jaringan untuk saling berbagi taktik dalam mem-bypass sistem pertahanan perusahaan tertentu.

Kecepatan Adaptasi Menjadi Kunci Utama Keamanan

Dalam kondisi ini, tolok ukur 7 hari menjadi sangat penting. Sebuah model pertahanan harus mampu mengidentifikasi serangan baru, memperbarui data, dan menerapkan sistem mitigasi dalam waktu 7 hingga 10 hari.

Banyak organisasi masih rentan karena bergantung pada vendor pihak ketiga yang memerlukan waktu berbulan-bulan untuk menguji dan menerapkan pembaruan. Pertahanan modern membutuhkan pendekatan seperti Deepsight, yang menggabungkan machine learning, pemeriksaan perilaku, dan verifikasi perangkat untuk mendeteksi camera injection, fraud dokumen sintetis, dan memastikan pengguna adalah manusia asli.

Daftar Periksa Pertahanan: 4 Pertanyaan untuk Setiap Vendor

Untuk mengatasi kesenjangan kecepatan ini, para eksekutif perlu mempertimbangkan empat pertanyaan kritis sebelum memilih vendor pertahanan:

  • Apa mekanisme pembaruan sistem pertahanan? Pastikan vendor dapat memperbarui model dalam hitungan hari, bukan bulan.
  • Bagaimana sistem mendeteksi deepfake dan identitas sintetis? Verifikasi harus mencakup pemeriksaan perilaku, perangkat, dan dokumen secara real-time.
  • Apakah ada kolaborasi dengan pihak berwenang untuk melawan fraud? Kerja sama dengan lembaga penegak hukum dapat meningkatkan efektivitas deteksi.
  • Bagaimana sistem beradaptasi terhadap serangan baru? Pertahanan harus bersifat proaktif, bukan reaktif, dengan pembelajaran otomatis yang terus menerus.

"Perusahaan yang tidak beradaptasi dengan cepat terhadap ancaman AI akan menghadapi kerugian besar, baik dari segi finansial maupun reputasi." — Fernanda Sottil, Direktur Strategi Incode Technologies

Langkah Strategis untuk Melawan Fraud AI

Menghadapi era fraud berbasis AI, perusahaan tidak bisa lagi mengandalkan sistem pertahanan konvensional. Mereka harus:

  • Mengadopsi teknologi deteksi real-time yang mampu mengidentifikasi serangan dalam hitungan detik.
  • Meningkatkan kolaborasi antar industri untuk berbagi informasi mengenai taktik fraud terbaru.
  • Melakukan pelatihan rutin bagi karyawan tentang ancaman deepfake dan AI generatif.
  • Menerapkan sistem verifikasi multi-lapis yang mencakup biometrik, perilaku, dan verifikasi dokumen.

Tanpa tindakan cepat dan strategis, perusahaan berisiko kehilangan kepercayaan pelanggan, mengalami kerugian finansial yang besar, dan bahkan menghadapi gangguan operasional yang serius. Di era AI, keamanan bukan lagi pilihan, melainkan keharusan.

Sumber: CyberScoop