Jangan langsung percaya dengan foto atau video yang Anda lihat. Begitu pula dengan suara. Bisa jadi, semuanya hasil manipulasi teknologi akal imitasi atau deepfake. Siapa pun dapat menjadi korban rekayasa visual itu, dari warga biasa hingga presiden. Mengidentifikasinya pun sulit.
Kedua foto di atas menampilkan Presiden Amerika Serikat Donald Trump (tengah) dengan Direktur CIA John Ratcliffe (kiri) dan Sekretaris Negara Marco Rubio. Dari kedua gambar di atas, bisakah Anda memastikan gambar yang asli dan buatan akal imitasi (AI)?
Sepintas, kedua foto ini amat mirip. Namun, jika ditelaah lebih dalam, keduanya berbeda. Foto bagian atas adalah karya Molly Riley dari Gedung Putih yang dipublikasikan Associated Press (AP). Foto itu diambil pada 3 Januari 2026 saat operasi militer terjadi di Venezuela.
Sementara foto di bawahnya adalah karya salah satu akal imitasi generatif yang dibuat hanya dengan memasukkan perintah teks (prompt). Dalam sepersekian detik, gambar sudah jadi. Beginilah contoh deepfake. Tidak hanya gambar, manipulasi juga bisa dilakukan pada audio dan video.
Teknologi ini memungkinkan manipulasi ekspresi dan ucapan. Jadi, seseorang digambarkan melakukan atau mengatakan sesuatu yang sebenarnya tidak pernah dilakukan atau diucapkan. Namun, karena hasilnya tampak sangat nyata, banyak orang terkecoh dan menganggapnya benar.
Konten deepfake kembali menjadi perhatian belakangan ini setelah Grok, akal imitasi dari perusahaan xAI milik Elon Musk, menampilkan manipulasi gambar pornografi. Dengan memasukkan prompt dan foto seseorang, Grok dapat membuat orang di gambar itu untuk mengenakan bikini.
Penyebaran gambar itu juga sangat luas karena Grok terintegrasi dengan platform X (dulunya Twitter). Sejumlah negara, seperti Perancis, Inggris, dan India, bereaksi keras. Bahkan, Indonesia memblokir sementara akses Grok, yang dapat membuat deepfake seksual nonkonsensual, sejak Sabtu (10/1/2026).
Indonesia menjadi negara pertama yang memutus sementara akses ke Grok. Malaysia dan Filipina kemudian menyusul langkah tersebut. Belakangan, platform X mengatakan fitur untuk merekayasa foto agar berpakaian bikini tidak dapat lagi digunakan, termasuk bagi pelanggan berbayar.
”Kami telah menerapkan langkah-langkah secara teknologi untuk mencegah akun Grok mengedit gambar-gambar riil orang hingga mereka tampak seperti memakai bikini. Pembatasan ini berlaku untuk semua pengguna, termasuk pengguna yang membayar,” tulis X pada Rabu (14/1/2026).
Meskipun fitur pada Grok itu tidak dapat diakses, teknologi deepfake tetap mengancam siapa pun. Perusahaan keamanan siber DeepStrike mencatat, konten deepfake diprediksi mencapai 8 juta pada 2025, atau melonjak tajam dibandingkan 2023 dengan 500.000 konten deepfake.
Tidak hanya warganet, figur publik seperti Taylor Swift hingga pejabat negara dapat menjadi korban deepfake. Di Indonesia, misalnya, video mantan Menteri Keuangan Sri Mulyani direkayasa untuk mengatakan, ”guru beban negara”. Bahkan, ada video Presiden Prabowo yang mahir berbahasa Arab dan Mandarin.
Kecerdasan buatan generatif telah menggeser karakter kejahatan siber dari sekadar serangan terhadap sistem menjadi serangan langsung terhadap identitas, martabat, dan keamanan psikologis individu.
”Kecerdasan buatan generatif telah menggeser karakter kejahatan siber dari sekadar serangan terhadap sistem menjadi serangan langsung terhadap identitas, martabat, dan keamanan psikologis individu,” ujar Direktur Eksekutif Communication and Information System Security Research Centre (CISSRec) Pratama Persadha, Senin (19/1/2026).
Sebelumnya, serangan siber identik dengan ransomware (peretasan pada sistem yang kerap meminta tebusan). Pada 2024, Pusat Data Nasional (PDN) menjadi korban serangan dengan tuntutan tebusan Rp 131 miliar. Sebanyak 239 instansi publik di Tanah Air pun terdampak.
Kini, melalui deepfake, serangan siber menyasar individu secara langsung, seperti yang terjadi di Grok. ”Teknologi (akal imitasi) memungkinkan penciptaan pornografi berbasis wajah dan tubuh seseorang tanpa izin. Ini masalah baru dalam keamanan ruang digital,” ungkap Pratama.
Selain menyerang individu, serangan siber dengan deepfake semakin cepat. Pada 2018, deepfake mulai menjadi perhatian ketika media Buzzfeed merilis cuplikan rekaman Barack Obama yang video dan audionya ditirukan oleh aktor Jordan Peele. Video itu ”menempelkan” mulut Peele pada wajah Obama.
Saat itu, Buzzfeed melaporkan, waktu pembuatan video tersebut mencapai 56 jam. Kini, seseorang dapat membikin video hanya dengan hitungan menit dengan akal imitasi generatif. Bahkan, untuk memanipulasi foto atau suara hanya hitungan detik dan sumbernya berasal dari siniar atau konten di media sosial.
Mohammed Khalil dari DeepStrike mengatakan, penipu hanya butuh waktu tiga detik untuk membuat suara tiruan dengan kemiripan hingga 85 persen. Panggilan telepon otomatis atau robocall mantan Presiden AS Joe Biden yang dimanipulasi pada 2024 hanya membutuhkan 20 menit dengan biaya 1 dolar AS.
”Yang lebih menakutkan, korban penipuan suara mengonfirmasi kehilangan uang, sebanyak 77 persen mengalami kerugian,” ujar Khalil dalam laporannya terkait deepfake pada September 2025. Secara umum, setiap insiden deepfake dapat membuat perusahaan besar merugi hingga 680.000 dolar AS.
Salah satu contoh adalah seorang karyawan di Arup, firma teknik global, yang mentransfer 25 juta dolar AS ke rekening penipu setelah menjadi korban deepfake. Dalam konferensi video, pelaku memanipulasi video dengan menampilkan wajah direktur keuangan perusahaan yang meminta transfer dana.
Di tengah kemudahan produksi deepfake, cara mendeteksi konten rekayasa itu justru lebih sulit. Khalil mencatat, kemampuan manusia mendeteksi video deepfake hanya 24 persen, sedangkan untuk gambar lebih baik, yakni 62 persen. Perusahaan juga rentan jadi korban karena tidak punya protokol khusus. Satu dari empat pemimpin juga tidak mengenal deepfake.
”Keberhasilan serangan deepfake bukan hanya soal teknologinya yang canggih, melainkan juga tentang psikologi manusia dan kegagalan organisasi,” ujarnya. Oleh karena itu, Khalil menyarankan adanya pengamanan berlapis, dari perusahaan hingga individu karyawan agar tidak menjadi korban.
Julius Muth, Co-Founder dan CEO Revel8, perusahaan yang fokus pada keamanan siber, menyebut deepfake merupakan senjata rekayasa yang sempurna. Sebab, korban menghadapi manipulasi emosional secara personal karena mendengar suara atau melihat gambar orang yang dikenal.
Pada saat yang sama, alat deteksi deepfake berbasis akal imitasi belum sepenuhnya berhasil. Meski dapat menganalisis pola bicara, data piksel, dan metadata untuk menandai konten rekayasa, alat deteksi tetap dapat tertinggal dengan model akal imitasi generatif baru. Dibutuhkan pelatihan ulang untuk sistem itu.
Muth pun menyarankan beberapa langkah agar tetap aman dari deepfake. Salah satunya, pengguna harus menerapkan kode rahasia atau pertanyaan yang hanya diketahui oleh keluarga atau orang tertentu di perusahaan. Hal ini penting untuk memverifikasi saat penipu beraksi.
”Cobalah berhenti sejenak selama 20 detik ketika mencurigai adanya deepfake. Rasa kegentingan dan ketakutan adalah alat manipulasi,” tulis Muth dalam laporannya, akhir 2025. Ia juga menyarankan agar seseorang tidak membagikan kata sandi kepada siapa pun. Perusahaan sekalipun tidak akan meminta kata sandi karyawannya.
”Teknologi memang dapat menandai konten mencurigakan, tetapi hanya manusia yang dapat menghentikan manipulasi yang sedang berlangsung. Kesadaran dan kesiapan tetap menjadi faktor penentu,” ujar Muth.
Di sisi lain, Kepala Program Studi Sarjana Kecerdasan Artifisial Fakultas Ilmu Komputer Universitas Indonesia Adila Alfa Krisnadhi menilai pemerintah dan perusahaan teknologi juga perlu memperketat sistemnya untuk mencegah deepfake. Kelonggaran kebijakan, seperti di Grok, dapat memicu deepfake.
”Saat ini, yang bisa kita lakukan adalah meningkatkan kewaspadaan. Jangan cepat percaya pada konten apa pun. Edukasi juga perlu dikuatkan. Pemerintah juga mampu mendorong perusahaan, seperti X, melakukan restriksi (pembatasan) khusus untuk mencegah deepfake,” ujarnya.



