Beritanda.com – Dari video palsu pejabat hingga suara keluarga yang ditiru, kejahatan deepfake kini berevolusi cepat di Indonesia, memanfaatkan AI untuk menipu korban dalam hitungan menit dengan kerugian nyata.
Dari Video Presiden hingga Panggilan Palsu: Modus yang Kian Kompleks
Jika dulu penipuan digital mengandalkan pesan teks atau telepon biasa, kini pelaku naik kelas. Mereka menggunakan deepfake—teknologi AI yang mampu meniru wajah, suara, hingga ekspresi—untuk menciptakan skenario yang terasa sangat meyakinkan.
Di Indonesia, beberapa kasus menunjukkan bagaimana teknik ini digunakan secara sistematis.
Pada Januari 2025, polisi menangkap pelaku yang menyebarkan video deepfake Presiden Prabowo yang seolah menawarkan bantuan Rp 50 juta per keluarga. Korban diminta mentransfer “biaya administrasi”, dan praktik ini menjangkau lebih dari 20 provinsi.
Kasus lain terjadi di Jawa Timur. Pelaku menggunakan video deepfake Gubernur untuk menawarkan motor murah seharga Rp 500 ribu. Tiga tersangka ditangkap, dengan total kerugian mencapai Rp 87,6 juta.
Bahkan, skala kejahatan tidak selalu besar. Dalam satu kasus, korban kehilangan Rp 200.000 setelah melakukan video call dengan sosok yang dikira pejabat—padahal itu deepfake.
Pola ini menunjukkan satu hal: deepfake tidak lagi butuh operasi besar. Ia bisa digunakan dalam penipuan kecil hingga masif, dengan efektivitas yang sama.
Lima Modus Deepfake yang Paling Sering Digunakan
Dari berbagai kasus, setidaknya ada lima pola utama yang kini digunakan pelaku:
- Penipuan dengan mencatut pejabat
Video Presiden atau Gubernur digunakan untuk membangun kepercayaan, lalu korban diminta transfer uang. - Voice cloning (peniruan suara)
Pelaku hanya butuh beberapa detik rekaman suara untuk meniru seseorang—bahkan keluarga sendiri. Tingkat keberhasilannya tinggi karena korban merasa “mengenal” suara tersebut. - Executive impersonation
Dalam dunia korporasi, pelaku menyamar sebagai eksekutif lewat video conference dan meminta transfer dana mendesak. - Deepfake pornografi
Foto korban di media sosial diubah menjadi konten pornografi. Kasus di Semarang melibatkan lebih dari 15 korban perempuan usia sekolah. - Biometric spoofing
Deepfake digunakan untuk menembus sistem verifikasi wajah di layanan keuangan, membuka akses ilegal ke akun korban.
Yang mengkhawatirkan, semua ini bisa dilakukan dengan biaya sangat rendah. Dalam beberapa kasus, pembuatan deepfake audio hanya membutuhkan waktu sekitar 20 menit dengan biaya kurang dari satu dolar.
Kenapa Deepfake Sulit Dideteksi?
Kecanggihan deepfake membuat metode keamanan lama mulai kehilangan efektivitas.
Video call—yang dulu dianggap sebagai verifikasi paling aman—kini justru bisa dimanipulasi. Begitu juga dengan suara, yang selama ini dianggap identitas unik seseorang.
Menurut pakar keamanan siber Pratama Persadha, kejahatan deepfake bahkan melangkah lebih jauh dibanding kejahatan digital lain.
“Kejahatan dengan modus deepfake ini satu langkah di depan dari kejahatan siber lain. Mereka menggunakan AI untuk memindai internet secara terus-menerus dan melancarkan serangan dengan intervensi manusia yang minimal.” — ujar Chairman CISSReC, Pratama Persadha.
Di level global, ancaman ini juga meningkat tajam. Jumlah file deepfake melonjak dari sekitar 500.000 pada 2023 menjadi lebih dari 8 juta pada 2025.
Sementara itu, upaya penipuan berbasis deepfake meningkat hingga 3.000% dalam satu tahun terakhir.
Dampaknya: Bukan Sekadar Uang, Tapi Kepercayaan
Kerugian akibat deepfake tidak hanya soal finansial.
Di Indonesia, total kerugian diperkirakan mencapai lebih dari $ 138 juta dalam beberapa tahun terakhir. Namun yang lebih dalam adalah dampak sosialnya.
Masyarakat mulai sulit membedakan mana yang nyata dan mana yang palsu. Video tidak lagi menjadi bukti kuat. Suara tidak lagi bisa dipercaya sepenuhnya.
Dalam kasus deepfake pornografi, dampaknya bahkan lebih berat. Korban—yang mayoritas perempuan—mengalami tekanan psikologis, stigma sosial, hingga kehilangan rasa aman di ruang digital.
Fenomena ini menandai perubahan besar: kejahatan tidak lagi hanya menyerang sistem, tapi juga persepsi manusia.
Di tengah kondisi ini, satu hal menjadi jelas—di era AI, kepercayaan adalah aset paling rentan.
