JAKARTA, KOMPAS — Setelah sempat diblokir, layanan akal imitasi atau artificial intelligence Grok di media sosial X kembali beroperasi. Kementerian Komunikasi dan Digital memproses normalisasi akses layanan Grok secara bersyarat dan di bawah pengawasan ketat setelah X Corp menyampaikan komitmen tertulis terkait langkah perbaikan layanan dan kepatuhan terhadap ketentuan hukum yang berlaku di Indonesia.
Direktur Jenderal Pengawasan Ruang Digital Kementerian Komunikasi dan Digital (Kemkomdigi) Alexander Sabar dalam keterangan persnya Minggu (1/2/2026), menegaskan, normalisasi akses tersebut bukan bentuk pelonggaran tanpa syarat, melainkan bagian dari mekanisme penegakan hukum digital yang terukur dan dapat dievaluasi sewaktu-waktu.
“Normalisasi akses layanan Grok dilakukan secara bersyarat setelah X Corp menyampaikan komitmen tertulis yang memuat langkah-langkah konkret perbaikan layanan dan pencegahan penyalahgunaan. Komitmen ini menjadi dasar evaluasi, bukan akhir dari proses pengawasan,” ujar Alexander di Jakarta.
Sebelumnya, Indonesia memblokir sementara akses Grok Ai karena konten pornografi berbasis teknologi akal imitasi (artificial intelligence/AI). Selain Indonesia, Malaysia dan Filipina juga mengambil tindakan yang sama.
Praktik manipulasi foto menggunakan teknologi AI, seperti mengubah foto seserong yang berpakaian menjadi telanjang. Sebagian citra rekayasa itu digabungkan dengan adegan pornografi. Sebagian korban rekayasa adalah perempuan dan anak-anak.
Praktik itu tidak sesuai dengan regulasi yang berlaku di Indonesia. Regulasi itu antara lain Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) serta Peraturan Menteri Komunikasi dan Informatika (Permenkominfo) Nomor 5 Tahun 2020 tentang Penyelenggara Sistem Elektronik Lingkup Privat.
Alexander menjelaskan, melalui surat resmi yang ditujukan kepada Menteri Komunikasi dan Digital, X Corp menyatakan telah menerapkan sejumlah langkah penanganan berlapis atas penyalahgunaan layanan Grok.
Langkah tersebut mencakup penguatan pelindungan teknis, pembatasan akses terhadap fitur tertentu, penajaman kebijakan serta penegakan aturan internal, hingga aktivasi protokol respons insiden.
Namun demikian, Kemkomdigi menegaskan, seluruh langkah yang diklaim oleh X Corp akan diverifikasi dan diuji secara berkelanjutan untuk memastikan efektivitasnya, khususnya dalam mencegah penyebaran konten ilegal dan pelanggaran terhadap prinsip pelindungan anak.
“Normalisasi ini disertai pemantauan dan evaluasi berkelanjutan. Jika dalam pelaksanaannya ditemukan ketidakkonsistenan atau pelanggaran lanjutan, Kemkomdigi tidak akan ragu mengambil tindakan korektif, termasuk menghentikan kembali akses layanan,” kata Alexander.
Kemkomdigi menegaskan, kebijakan pengawasan ruang digital, baik dalam bentuk pembatasan maupun normalisasi akses layanan, dilaksanakan secara proporsional, transparan, dan berbasis regulasi. Langkah tersebut ditempuh untuk melindungi kepentingan publik sekaligus menjaga ruang digital nasional tetap aman dan berkeadilan.
Pemerintah juga mencatat komitmen X Corp untuk terus bekerja sama dengan otoritas Indonesia dalam memenuhi kewajiban hukum sebagai Penyelenggara Sistem Elektronik (PSE) serta menjaga ekosistem digital yang bertanggung jawab.
“Dialog konstruktif tetap kami buka, tetapi kepatuhan terhadap hukum Indonesia adalah kewajiban. Normalisasi layanan bukan titik akhir, melainkan bagian dari proses pengawasan negara yang berkelanjutan,” tutur Alexander.
Dihubungi secara terpisah, Chairman Lembaga Riset Keamanan Siber CISSReC Pratama Persadha menilai, keputusan Kemkomdigi untuk menormalkan kembali akses layanan kecerdasan buatan (AI) Grok secara bersyarat dan di bawah pengawasan ketat perlu dibaca lebih jernih oleh publik.
Kebijakan ini bukan pernyataan bahwa layanan AI tersebut telah sepenuhnya aman, kebebasan tanpa kontrol atau bebas risiko. Sebaliknya, normalisasi itu menandai masuknya Grok ke dalam fase pengawasan lanjutan oleh negara.
Pratama menekankan, normalisasi bersyarat tersebut merupakan strategi negara untuk memastikan teknologi global tetap tunduk pada hukum dan nilai yang berlaku di Indonesia.
Dalam konteks AI generatif, tantangan pengawasan jauh lebih kompleks dibandingkan platform digital konvensional. Risiko penyalahgunaan tidak selalu muncul dalam bentuk konten ilegal yang terang-terangan.
Menurut Pratama, AI seperti Grok dapat “diakali” melalui teknik tertentu, mulai dari penyusunan pertanyaan (prompt) yang cermat, penciptaan skenario fiktif, hingga pemanfaatan celah logika sistem.
“Konten bermasalah bisa muncul secara terselubung, kontekstual, dan sulit dikenali, terutama oleh pengguna awam dan anak-anak. Ini yang membuat AI generatif berbeda,” kata Pratama.
Kondisi tersebut membuat penguatan pengamanan teknis, meski penting, belum tentu memadai. Jika persoalan mendasar justru terletak pada desain dan cara kerja model AI, pembatasan di level luar—seperti fitur atau kebijakan penggunaan—hanya bersifat sementara.
Pratama mengibaratkannya seperti rumah berpagar tinggi, tetapi masih memiliki celah lain yang memungkinkan pintu dibuka dari dalam.
Risiko semakin besar apabila pembatasan hanya diterapkan pada level fitur, bukan pada model dasar AI. Fitur dapat diatur atau dibuka-tutup sesuai kebijakan perusahaan, sementara kemampuan inti model tetap sama.
Dalam perspektif keamanan siber, situasi ini berpotensi menciptakan rasa aman semu, seolah layanan sudah sepenuhnya terkendali, padahal potensi bahaya masih tersimpan di balik sistem.
Normalisasi bersyarat bukan pengampunan, melainkan mekanisme pengawasan yang lebih ketat,
Di sisi lain, Pratama melihat skema normalisasi bersyarat sebagai upaya negara menjaga kedaulatan digital. Pemerintah tidak serta-merta melarang inovasi, tetapi juga tidak membiarkan platform global beroperasi tanpa kontrol. Negara tetap memegang kewenangan untuk menghentikan kembali layanan jika komitmen dilanggar.
“Namun harus diakui, pengawasan semacam ini masih menyisakan tantangan, karena pada titik tertentu tetap bergantung pada transparansi dan kepatuhan perusahaan global seperti X Corp,” kata Pratama.
Oleh karena itu, konsistensi penegakan hukum digital menjadi kunci. Tanpa komunikasi yang jelas, publik berisiko salah menafsirkan kebijakan ini sebagai inkonsistensi—hari ini dibatasi atau diblokir, besok dinormalisasi kembali.
“Padahal, normalisasi bersyarat bukan pengampunan, melainkan mekanisme pengawasan yang lebih ketat,” ujar Pratama.
Kepercayaan publik, lanjutnya, hanya dapat dijaga jika evaluasi dilakukan secara transparan dan sanksi benar-benar diterapkan ketika terjadi pelanggaran ulang. Tanpa itu, ancaman penghentian akses berpotensi kehilangan daya gentarnya.
Lebih jauh, persoalan Grok tidak bisa dipandang semata sebagai isu teknologi. AI generatif telah menjadi bagian dari infrastruktur sosial yang memengaruhi cara berpikir, berinteraksi, dan mengambil keputusan. Kesalahan dalam pengawasan hari ini berpotensi membawa dampak jangka panjang terhadap nilai, keamanan, dan tatanan sosial masyarakat.
Pratama menilai, normalisasi Grok seharusnya menjadi momentum bagi Indonesia untuk memperkuat tata kelola AI secara menyeluruh. Tidak hanya melalui aturan administratif, tetapi juga lewat audit sistem, uji dampak sosial, serta penetapan standar etika yang jelas.
“Pembukaan kembali akses Grok bukan sekadar soal dibolehkan atau dilarang. Ini ujian tentang siapa yang memegang kendali di ruang digital Indonesia—algoritma global atau negara yang memastikan hukum dan kepentingan publik tetap menjadi rujukan utama,” kata Pratama.




