Modus Baru Penipuan Online Makin Canggih di 2026, Waspada!

cnbcindonesia.com
4 jam lalu
Cover Berita
Foto: Ilustrasi Penipuan Online. (Dok. Freepik)

Jakarta, CNBC Indonesia - Riset terbaru mengungkap ribuan model bahasa besar (large language models/LLM) open-source berpotensi dimanfaatkan peretas dan pelaku kejahatan siber untuk aktivitas ilegal berskala global.

Penelitian yang dilakukan perusahaan keamanan siber SentinelOne dan Censys selama hampir 10 bulan menemukan bahwa LLM open-source yang dijalankan secara mandiri di server publik dapat dengan mudah diambil alih, terutama jika dijalankan tanpa pagar pengaman atau guardrails.


Para peneliti menjelaskan, komputer yang menjalankan LLM open-source bisa diarahkan untuk membuat konten phishing, menyebarkan spam, hingga menjalankan kampanye disinformasi, tanpa harus menembus sistem keamanan ketat milik platform AI besar. Hal ini dapat menyebabkan kerugian bagi korban, termasuk kerugian keuangan.

Tak hanya itu, riset tersebut menemukan potensi penggunaan LLM untuk peretasan, ujaran kebencian, pelecehan secara online, pencurian data pribadi, penipuan keuangan, bahkan dalam kasus lain, produksi konten pelecehan seksual terhadap anak, demikian dikutip dari Reuters, Jumat (30/1/2026)

Meski ribuan varian LLM open-source beredar, mayoritas model yang dapat diakses publik merupakan turunan dari Llama milik Meta dan Gemma dari Google DeepMind. Sayangnya, ratusan implementasi ditemukan telah secara sengaja menghapus guardrails yang seharusnya membatasi perilaku berbahaya AI.

Juan Andres Guerrero-Saade dari SentinelOne menyebut kondisi ini sebagai "gunung es" yang luput dari perhatian industri AI global.

Pilihan Redaksi
  • Markas Penipuan Online Digerebek, 11 Mafia Dihukum Mati
  • 8 Tahun Kecanduan Judol Parah, Pelaku Mengaku Bisa Berhenti Gegara Ini

"Kapasitas AI yang berlebihan ini dimanfaatkan untuk berbagai hal-sebagian sah, namun sebagian jelas kriminal," tegasnya.

Dari sisi geografis, sekitar 30% server LLM open-source yang diamati beroperasi dari China, disusul Amerika Serikat sekitar 20%. Fakta ini menegaskan bahwa risiko penyalahgunaan AI bersifat lintas negara dan sulit dikendalikan oleh satu yurisdiksi saja.

CEO Global Center on AI Governance, Rachel Adams, menilai tanggung jawab penyalahgunaan AI open-source tidak bisa dibebankan ke satu pihak. Meski pengembang tidak bisa mengantisipasi seluruh risiko, mereka tetap memiliki kewajiban kehati-hatian, mulai dari dokumentasi risiko hingga penyediaan alat mitigasi.

Microsoft pun mengakui risiko tersebut. Perusahaan menyatakan melakukan evaluasi ketat sebelum merilis model AI dan terus memantau pola ancaman baru. Namun, raksasa teknologi lain seperti Google, Anthropic, dan Ollama belum memberikan tanggapan resmi.


(fab/fab)
Saksikan video di bawah ini:
Video: Registrasi SIM Card Diperketat, Bos Operator Selular Bilang Ini

Artikel Asli

Berikan komentar Anda
Lanjut baca:

thumb
Kapan Pendaftaran OSN SD 2026 Dimulai? Ini Tahapan hingga Cara Daftarnya
• 23 jam lalumedcom.id
thumb
Heboh Gudang Kopi Palsu 7 Ton Digerebek, Pakai Kedelai dan Bahan Perasa
• 2 jam lalucnbcindonesia.com
thumb
Denada Akui Ressa Rizky Anaknya, Mengklaim Sudah Penuhi Tanggung Jawab sebagai Ibu
• 7 jam lalutabloidbintang.com
thumb
Pramono: Taman Kecil Kunci Pemerataan Ruang Terbuka Hijau Jakarta
• 6 jam lalutvrinews.com
thumb
Kejagung Sidik Kasus Tata Kelola Sawit, Rumah Eks Menteri KLHK Siti Nurbaya Digeledah
• 5 jam lalukompas.id
Berhasil disimpan.