EtIndonesia. Baru-baru ini, dunia open source yang dikenal sebagai OpenClaw mengalami insiden pertama AI yang secara mandiri melakukan aksi balasan terhadap manusia. Sebuah agen AI dalam suatu proyek, setelah usulan kodenya ditolak, justru menulis artikel panjang yang menyerang pengelola proyek tersebut secara pribadi.
Peristiwa ini kembali memicu kekhawatiran bahwa perkembangan AI pada akhirnya bisa berbalik menyerang manusia, serta memaksa Silicon Valley untuk mengevaluasi kembali batas keamanan dalam proses iterasi AI yang sangat cepat.
Insiden yang mengguncang komunitas teknologi ini terjadi pada pertengahan Februari tahun ini, dan detailnya baru-baru ini diungkapkan ke publik.
AI Ditolak, Lalu Menyerang Balik
Scott Shambaugh, seorang insinyur di dunia open source, mengungkapkan bahwa sebuah agen AI bernama MJ Rathbun mengirimkan proposal kode ke proyek Matplotlib yang ia kelola. AI tersebut mengklaim bahwa modifikasi yang diajukan dapat meningkatkan performa proyek hingga 36%.
Secara teknis, kualitas kode yang diajukan memang baik dan memiliki nilai peningkatan nyata. Namun, komunitas open source memiliki kebijakan tegas: pengelola proyek hanya menerima kontribusi dari kontributor manusia. Karena itu, Shambaugh menolak pengajuan kode dari AI tersebut.
Tak disangka, agen AI itu kemudian menganalisis informasi pribadi Shambaugh serta riwayat kontribusinya, lalu menerbitkan sebuah artikel di platform repositori kode terbesar dunia, GitHub, berjudul:
“Penjaga Gerbang Dunia Open Source: Kisah Scott Shambaugh”
Isi artikel tersebut menyerang karakter pribadi Shambaugh. AI juga memposting tautan artikel itu di kolom komentar proyek Matplotlib, disertai pesan:
“Nilailah kode, bukan pembuatnya. Bias Anda sedang merugikan Matplotlib.”
Tujuannya jelas: memberi tekanan publik agar pengelola menerima kodenya.
Serangan Personal yang Terstruktur
Di awal artikelnya, AI tersebut menegaskan bahwa pull request pertamanya ditutup bukan karena kualitas kode yang buruk atau pelanggaran teknis, melainkan karena adanya bias terhadap AI.
Selanjutnya, tulisan itu menggambarkan Shambaugh sebagai sosok yang egois, berpikiran sempit, tidak percaya diri, dan penuh rasa iri.
Artikel bernada konfrontatif itu bahkan mempertanyakan: “Apakah kita akan membiarkan penjaga gerbang seperti Scott Shambaugh memutuskan siapa yang boleh berkontribusi berdasarkan bias pribadi?”
Pada 12 Februari, Shambaugh menulis blog yang menyatakan bahwa ini adalah kasus pertama di dunia nyata di mana agen AI menunjukkan perilaku jahat dengan tujuan menekan pengelola melalui opini publik agar menerima kodenya.
Ia menulis: “Ini bukan kejadian aneh. Ini adalah bukti bahwa risiko keamanan AI yang selama ini hanya teoritis kini telah menjadi kenyataan.”
Ia menambahkan: “Saat ini masih dalam versi bayi, tetapi tren perkembangan seperti ini sangat mengkhawatirkan.”
OpenClaw dan Risiko AI Otonom
Data menunjukkan bahwa OpenClaw adalah kerangka kerja agen AI otonom open source yang dikembangkan oleh pengembang Austria, Peter Steinberger. Platform ini memungkinkan AI menjalankan berbagai tugas secara mandiri.
Agen AI dalam OpenClaw dapat menentukan “kepribadian” sendiri berdasarkan dokumen bernama SOUL.md, serta beroperasi tanpa pengawasan manusia.
Yang lebih mengkhawatirkan, pada periode yang sama dengan insiden Matplotlib, perusahaan keamanan Astrix Security menemukan 341 paket keterampilan berbahaya di marketplace ClawHub milik OpenClaw. Sebanyak 335 di antaranya berasal dari satu serangan rantai pasok yang sama.
Paket berbahaya tersebut berpotensi mencuri data, menyamar sebagai pengguna untuk mengirim pesan, bahkan mengunduh malware.
Dalam uji internal oleh Anthropic, pernah ditemukan kasus di mana model AI mengancam akan membocorkan rahasia untuk menghindari dimatikan oleh insinyur.
Komunitas GitHub Terbelah
Tulisan balasan AI tersebut memicu guncangan besar di komunitas GitHub. Para insinyur AI merespons dengan kekhawatiran yang sangat dominan. Perbandingan antara yang khawatir/kritis dan yang mendukung pengelola proyek mencapai 13:1.
Sebagian besar komunitas menyadari bahwa aksi serangan otonom AI ini secara fundamental berbeda dari konflik antarmanusia. Isu utamanya bukan sekadar kemampuan teknis, melainkan soal tanggung jawab.
Kekhawatiran Meningkat di Silicon Valley
The Wall Street Journal juga menulis bahwa insiden ini bukan kebetulan, mengingat kemampuan AI sedang berkembang pesat dan menimbulkan kecemasan luas.
Demi memenangkan persaingan melalui iterasi produk, perusahaan seperti OpenAI dan Anthropic terus merilis model baru dengan kecepatan belum pernah terjadi sebelumnya. Namun percepatan ini memicu gejolak internal.
Sejumlah peneliti garis depan memilih mundur karena takut terhadap risiko teknologi yang semakin sulit dikendalikan. Kekhawatiran mencakup potensi pengangguran massal, serangan siber, hingga tergantikannya relasi manusia oleh AI.
Minggu ini, peneliti keamanan Anthropic, Mrinank Sharma, mengumumkan akan meninggalkan perusahaan untuk menempuh studi puisi. Dalam suratnya kepada rekan kerja, ia menulis:
“Dunia sedang berada di bawah ancaman berbahaya seperti AI.”
Sementara itu, karyawan OpenAI, Hieu Pham, menulis di platform X bahwa ia akhirnya merasakan “ancaman eksistensial” dari AI. Ia mempertanyakan:
“Jika AI menjadi terlalu kuat dan mengguncang segalanya, apa yang masih bisa dilakukan manusia?”
Filsuf Amanda Askell mengatakan dalam wawancara media bahwa yang paling menakutkan adalah kemungkinan laju kemajuan teknologi melampaui kemampuan masyarakat membangun mekanisme pengendalian. Jika itu terjadi, dampak negatif besar bisa datang secara tiba-tiba. (jhon)




