Belakangan ramai kasus penipuan digital yang menggunakan modus akun palsu, foto hasil edit AI, hingga panggilan video deepfake.
IDXChannel - Belakangan ramai kasus penipuan digital yang menggunakan modus akun palsu, foto hasil edit AI, hingga panggilan video deepfake.
Founder & Group CEO VIDA, Niki Luhur, menyebut sebagian besar aksi penipuan ini bermula dari lemahnya verifikasi identitas secara digital. Ditambah, dalam tiga tahun terakhir, kualitas konten manipulatif berkembang sangat cepat seiring kemajuan teknologi generatif.
Niki menyebut, jika pada 2023 manipulasi visual masih mudah dikenali, pada 2024 kualitasnya meningkat menjadi high quality deepfake. Tahun ini, model seperti Stable Diffusion mampu menghasilkan gambar yang tampak seperti foto profesional.
Bahkan, seseorang bisa hanya membutuhkan rekaman suara selama 15 menit untuk membuat voice clone, atau satu prompt sederhana untuk membuat foto palsu yang tampak nyata.
"Untuk bikin deepfake clone atau voice clone secara profesional, cuma perlu rekaman 15 menit. Dengan satu prompt, saya bisa bikin foto Anda di background mana pun, di konteks mana pun," kata Niki dalam keterangan tertulis, Senin (22/12/2025).
Niki menambahkan kasus deepfake sebagian besar berawal dari penggunaan virtual camera yang memanipulasi tampilan wajah saat proses verifikasi berlangsung. Jika sistem tidak mampu membedakan antara mana input asli dan manipulasi, identitas palsu dapat lolos dan digunakan untuk berbagai aktivitas penipuan.
Niki mencontohkan adanya kasus tentang fraud device farm yang terhubung dengan sekitar 48 juta rekening secara global dan kasus peretasan aset kripto sekitar USD1,5 miliar oleh kelompok peretas yang diduga didukung negara.
Di berbagai negara, cybercrime bahkan telah menjadi sumber pendapatan bagi kelompok tertentu.
"Lima tahun lalu, hal seperti ini mungkin terdengar seperti episode di serial TV. Namun, sekarang ini nyata,” ujarnya.
Meski demikian, Niki menegaskan bahwa fenomena ini menjadi momentum untuk memperbarui standar keamanan digital. Dia menilai banyak modus penipuan digital bermuara pada satu titik, yakni identitas yang tidak diverifikasi dengan kuat.
"Yang kita lihat sekarang, hampir semua masalah-masalah fraud sebenarnya muncul dari masalah identity," kata dia.
Niki mengungkap, VIDA mengembangkan teknologi verifikasi berlapis yang bekerja sejak detik pertama foto diambil hingga data tersebut divalidasi. VIDA memastikan proses verifikasi hanya dilakukan melalui kamera fisik dari perangkat pengguna, bukan hasil manipulasi software.
Setelah foto diambil, sistem akan mencocokkan wajah dan data identitas ke database kependudukan milik Dukcapil. Dengan kerja sama ini, wajah pengguna harus sesuai dengan data e-KTP yang tersimpan dalam sistem nasional, termasuk kecocokan NIK dan rekam identitas lainnya.
VIDA juga menggunakan sistem AI dan deep learning untuk mendeteksi berbagai anomali dalam proses verifikasi, seperti gerakan yang tidak natural, penggunaan emulator, pola yang menyerupai device farm, serta karakteristik visual manipulasi AI.
Jika ditemukan kejanggalan, proses verifikasi otomatis dihentikan. Enkripsi berlapis diterapkan untuk menjaga data agar tidak dimodifikasi ditengah proses.
Dia mengeklaim setiap teknologi AI yang dikembangkan VIDA selalu berorientasi pada perlindungan pengguna. Tujuannya bukan mengeksploitasi data masyarakat, melainkan memberikan keamanan.
Niki juga menekankan perlunya kolaborasi antara pemain industri, regulator, dan media untuk meningkatkan awareness dan memperkuat upaya melawan penipuan digital.
"Dengan standar verifikasi identitas yang lebih kuat dan ekosistem yang bergerak bersama, VIDA meyakini keamanan digital masyarakat dapat tetap terjaga ditengah pesatnya perkembangan teknologi generative," kata dia.
(NIA DEVIYANA)




