Dalam era akal imitasi atau AI saat ini, tidak mudah membedakan konten asli dan hasil buatan AI. Kementerian Komunikasi dan Digital (Kemkomdigi) pun menyiapkan aturan yang mewajibkan konten AI memakai label. Seberapa efektif regulasi ini menangkap “deepfake”?
Rencana membuat aturan itu mengemuka dalam Rapat Kerja Komisi I DPR dengan Menteri Komdigi Meutya Hafid di Kompleks Parlemen, Senayan, Jakarta, Senin (26/1/2026). Rapat yang disiarkan secara daring dihadiri pimpinan dan anggota DPR Komisi I serta pejabat eselon I Kemkomdigi.
Direktur Jenderal Ekosistem Digital Kemkomdigi Edwin Hidayat Abdullah mengatakan, Komdigi tengah menyiapkan peraturan menteri terkait penggunaan AI untuk penyelenggara sistem elektronik (PSE). PSE adalah pengelola sistem elektronik, seperti situs atau media sosial.
“(Peraturan menteri yang dimaksud) yaitu, peraturan di mana generatif AI yang dimunculkan wajib diberikan watermark (label/tanda). Ini sedang kami rancang. Jadi, jangan sampai bingung ini (konten buatan) AI atau betul?” ungkap Edwin di hadapan anggota Komisi I DPR RI.
Dengan regulasi itu, perusahaan penyedia AI wajib mencantumkan label pada setiap hasil buatan AI generatif. Kecerdasan buatan generatif adalah penggunaan AI untuk menghasilkan konten, seperti teks, gambar, suara, dan video. Contohnya, ChatGPT, Google Gemini, dan Grok AI.
“Ketika (konten AI) muncul di penyelenggara sistem elektronik, seperti Youtube atau media sosial tanpa mencantumkan (label AI), maka (kontennya) akan bisa di-takedown (diturunkan). Jadi, ini salah satu aturan yang kami rancang,” ungkap Edwin.
Selama ini, banyak konten buatan AI yang tidak disertai penanda. Bahkan, ada pihak yang menggunakan AI untuk membuat konten deepfake atau memanipulasi gambar, suara, hingga video. Hanya dengan menuliskan perintah teks (prompt), siapa pun bisa membikin deepfake.
Teknologi ini memungkinkan manipulasi ekspresi dan ucapan. Jadi, seseorang digambarkan melakukan atau mengatakan sesuatu yang sebenarnya tidak pernah dilakukan atau diucapkan. Namun, karena hasilnya tampak sangat nyata, banyak orang terkecoh dan menganggapnya benar.
Warga hingga presiden dapat menjadi korban deepfake. Tahun lalu, misalnya, beredar video Menteri Keuangan Sri Mulyani direkayasa untuk mengatakan, ”guru beban negara”. Bahkan, terdapat video Presiden Prabowo Subianto yang mahir berbahasa Arab dan Mandarin.
Konten deepfake juga bisa membuat gambar seseorang mengenakan bikini bahkan tanpa busana, seperti yang ada di Grok, chatbot AI platform media sosial X (dulunya Twitter). Maraknya konten deepfake seksual nonkonsensual itu membuat Kemkomdigi memblokir sementara Grok sejak 10 Januari lalu.
Jika peraturan menteri Komdigi terkait AI itu terbit, penyebaran konten deepfake dapat diantisipasi. Menurut Edwin, dengan regulasi itu, setiap konten AI yang tanpa label akan diturunkan (take-down). Adapun sanksi bagi pengembang AI sudah diatur di regulasi lainnya.
Dua draf perpres ini sudah masuk ke dalam perpres prioritas yang akan ditandatangani presiden di tahun 2026
Aturan itu adalah Undang-Undang Nomor 1 Tahun 2024 tentang Perubahan Kedua Atas UU No 11/2008 tentang Informasi dan Transaksi Elektronik (UU ITE). Namun, dalam aturan itu tidak ada pasal yang spesifik menyebutkan tentang kecerdasan buatan.
Edwin tidak mengungkapkan kapan peraturan menkomdigi yang mengatur tentang label konten AI itu terbit. Namun, regulasi itu akan hadir setelah Prabowo menerbitkan dua peraturan presiden dengan nama Peta Jalan Kecerdasan Artifisial (KA) dan Etika KA.
“Dua draf perpres ini sudah masuk ke dalam perpres prioritas yang akan ditandatangani presiden tahun 2026,” ucapnya. Edwin menjelaskan, peta jalan KA, antara lain, mengatur tentang penggunaan AI pada 10 sektor, seperti ketahanan pangan, transportasi, logistik, dan keuangan.
Peta jalan itu juga akan mendukung berjalannya program prioritas Prabowo, seperti makan bergizi gratis, pemeriksaan kesehatan gratis, koperasi merah putih. Regulasi ini mengamanatkan pembentukan gugus tugas yang mengarahkan serta menyelaraskan implementasi aturannya.
Adapun Perpres terkait Etika KA akan mengatur tiga pihak, yakni pengguna, pelaku industri, dan regulator atau pemerintah. Pengguna, seperti warganet, misalnya, harus hati-hati dalam memakai AI. Jangan sampai, pengguna membagikan data pribadi, seperti isi dalam KTP kepada chatbot.
Pelaku industri atau pengembang teknologi AI juga wajib melakukan proteksi terhadap warga yang menggunakan AI agar tidak terjadi kebocoran data. Setiap kementerian dan lembaga pun harus mengatur pemanfaatan AI di sektornya masing-masing.
Etika KA, katanya, diharapkan dapat mengantisipasi tiga risiko besar dalam pemanfaatan AI di Indonesia. Pertama, risiko melebarnya kesenjangan sosial. Sekolah yang infrastruktur digitalnya lengkap, misalnya, dapat memanfaat AI lebih baik dibandingkan sekolah dengan fasilitas minim.
Risiko kedua adalah pelanggaran terhadap perlindungan data pribadi pengguna. Ketiga, risiko penggunaan deepfake untuk kejahatan, yang selama ini marak terjadi. Itu sebabnya, untuk mengantisipasi berbagai risiko itu, etika KA akan mengatur pengguna, industri, dan lembaga.
Menkomdigi Meutya Hafid mengatakan, draft Buku Putih Peta Jalan dan Etika KA telah disusun pada 2025 dan ditargetkan menjadi perpres tahun ini. Peraturan Pemerintah (PP) turunan Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi juga ditargetkan rampung awal 2026.
“Sambil menunggu (PP dan perpres) ditandatangani, kami sudah membuat atau sedang dalam pembahasan draf permen. Jadi, ketika ditandatangani, permen pertama yang akan dikeluarkan adalah yang mewajibkan platform melakukan labeling atau watermarking bahwa ini adalah konten AI,” ujar Meutya.
Selain menunggu terbitnya regulasi terkait AI, pihaknya juga memperketat pengawasan pada PSE untuk penguatan tata kelola digital. Hingga Desember 2025, tercatat 3.805 PSE terdaftar di Kemkomdigi. Sebanyak 61 peringatan pun diberikan kepada PSE untuk melakukan registrasi untuk kepatuhan.
“Dari 61 surat peringatan, sebagian besar akhirnya sudah mendaftar, termasuk perusahaan sekelas OpenAI (ChatGPT),” ucapnya.
Adapun sanksi pemblokiran terhadap Grok, kata Meutya, masih berlangsung hingga kini. Pihaknya juga menunggu kepastian kepatuhan dari Grok.
Anggota Komisi I DPR Mulyadi mengatakan, masyarakat kini kerap bingung menyaring konten palsu buatan AI atau yang asli. Jika hal ini tidak diantisipasi, kejahatan siber, seperti penipuan, deepfake, kejahatan seksual daring dapat terjadi dan merugikan masyarakat.
Perkembangannya (AI) lebih cepat dari regulasi yang disiapkan. Ini yang kami khawatirkan. Kalau kementerian baru menyediakan regulasi untuk level tertentu, dia (AI) sudah membuat kreasi yang melampaui itu.
“Perkembangannya (AI) lebih cepat dari regulasi yang disiapkan. Ini yang kami khawatirkan. Kalau kementerian baru menyediakan regulasi untuk level tertentu, dia (AI) sudah membuat kreasi yang melampaui itu. (Perkembangan AI) ini persoalan yang tidak bisa dihambat,” ujarnya.
Apalagi, konten deepfake semakin marak. Laporan Empowering Indonesia Report 2025 bertema ”Building Bridges of Tomorrow” mencatat, konten deepfake pada 2023 hingga 2024 melonjak 1.550 persen. Laporan ini diluncurkan akhir Oktober 2025 oleh Indosat Ooredoo Hutchison (Indosat/IOH) serta Twimbit, perusahaan riset serta konsultasi.
Di sisi lainnya, Indonesia menjadi negara dengan pengguna ChatGPT, teknologi AI berbasis model bahasa besar (LLM), terbesar ketiga setelah China dan India pada 2024. Sebanyak 129 juta orang atau 45 persen dari total penduduk tercatat aktif memakai ChatGPT setiap pekan.
Ketua Presidium Masyarakat Antifitnah Indonesia (Mafindo) Septiaji Eko Nugroho pun mendorong pemerintah segera memiliki aturan terkait AI, bahkan dalam bentuk Undang-undang. Korea Selatan, misalnya, memiliki UU yang mengatur bahwa konten AI tanpa label akan didenda.
UU dengan nama lengkap The Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness ini juga mendorong riset, pelatihan talenta, hingga dukungan start up. Uni Eropa pun telah memiliki UU AI yang akan berlaku secara penuh pada 2027.
Indonesia, katanya, dapat belajar pada negara yang telah memiliki regulasi AI. Menurut Septiaji, aturan terkait AI setidaknya memuat empat poin besar. Pertama, transparansi konten dengan mewajibkan platform memberikan label pada konten yang dihasilkan AI.
“Dengan begitu, beban memilah konten sintetik dan otentik tidak lagi di masyarakat, tetapi pada platform media sosial dan pembuat konten AI,” ujarnya. Kedua, regulasi AI harus berbasis pada risiko. Untuk mengantisipasi risiko kebocoran data, misalnya, platform wajib melaporkan data yang dilindungi.
Ketiga, regulasi AI harus menyeimbangkan antara inovasi dan keamanan. Misalnya, perusahaan rintisan (start up) dapat menguji teknologinya dalam lingkungan terbatas tanpa terikat penuh pada regulasi yang berat. Regulasi juga harus membedakan antara perusahaan besar, menengah, serta akademisi.
Keempat, regulasi harus mendukung jurnalisme dan kreator konten lokal. Platform AI yang menggunakan data dari jurnalisme, konten karya anak bangsa, misalnya, wajib memberikan dukungan dan kompensasi. Dengan begitu, jurnalisme dan konten otentik masyarakat terjaga.
Menurut Septiaji, kehadiran regulasi dapat mengantisipasi penyebaran deepfake hingga memberi kepastian hukum kepada pengembang dan investor AI. Namun, aturan akan efektif jika diimplementasikan. “Selain itu, edukasi etika AI juga mendesak dilakukan,” ucapnya.

