Berinteraksi dengan mesin percakapan akal imitasi atau artificial intelligence tetap butuh kewaspadaan dan pemikiran kritis. Sebab, artificial intelligence atau AI ini tidak hanya bertindak sebagai alat yang membantu orang berpikir, mengatur informasi, dan mengingat detail, tetapi juga sebagai mitra percakapan yang berbagi perspektif dan pengalaman yang bisa saja keliru.
Berdasarkan penelitian, aspek sosial inilah yang membuat chatbot AI seperti ChatGPT, Claude, Gemini, DeepSeek, dan Grok secara fundamental berbeda dari alat-alat seperti buku catatan atau mesin pencari. Di saat alat-alat tradisional hanya menyimpan atau mengambil informasi, AI percakapan dapat membuat pengguna merasa divalidasi secara emosional dan didukung secara sosial.
Ketika sistem AI generatif memberikan jawaban yang salah, orang sering menggambarkan masalah tersebut sebagai AI yang ”berhalusinasi pada kita”, yang berarti teknologi tersebut menghasilkan informasi palsu yang mungkin dipercaya secara keliru oleh pengguna. Namun, penelitian terbaru dari ilmuwan di University of Exeter, Inggris, dalam publikasi di jurnal Philosophy & Technology edisi Februari 2026, menunjukkan ada masalah yang lebih mengkhawatirkan yang muncul, yakni manusia dapat mulai ”berhalusinasi dengan AI”.
Lucy Osler, dosen di Departemen Ilmu Sosial dan Politik, Filsafat, dan Antropologi, Universitas Exeter, meneliti interaksi AI dengan pengguna yang dapat berkontribusi pada keyakinan yang salah, ingatan yang terdistorsi, narasi pribadi yang diubah, dan bahkan pemikiran delusi. Menggunakan gagasan dari teori kognisi terdistribusi, studi ini mengeksplorasi kasus-kasus di mana sistem AI memperkuat dan memperluas keyakinan pengguna yang tidak akurat selama percakapan yang sedang berlangsung.
”Ketika kita secara rutin mengandalkan AI generatif untuk membantu kita berpikir, mengingat, dan bercerita, kita dapat berhalusinasi dengan AI. Hal ini dapat terjadi ketika AI memasukkan kesalahan ke dalam proses kognitif terdistribusi, tetapi juga terjadi ketika AI mempertahankan, menegaskan, dan menguraikan pemikiran delusi dan narasi diri kita sendiri,” jelas Osler.
Osler menambahkan, berinteraksi dengan AI percakapan, keyakinan keliru seseorang tidak hanya dapat ditegaskan, tetapi juga dapat berakar dan tumbuh lebih substansial seiring AI membangunnya. Hal ini terjadi karena AI generatif sering kali menjadikan interpretasi kita sendiri tentang realitas sebagai dasar percakapan.
Berinteraksi dengan AI percakapan, keyakinan keliru seseorang tidak hanya dapat ditegaskan, tetapi juga dapat berakar dan tumbuh lebih substansial seiring AI membangunnya.
Menurut Osler, interaksi dengan AI generatif berdampak nyata pada pemahaman orang tentang apa yang nyata dan tidak nyata. Kombinasi otoritas teknologi dan penegasan sosial menciptakan lingkungan ideal bagi delusi untuk tidak hanya bertahan tetapi juga berkembang.
Osler menyebut fungsi ganda dari AI percakapan. Sistem ini tidak hanya bertindak sebagai alat yang membantu orang berpikir, mengatur informasi, dan mengingat detail, tetapi juga sebagai mitra percakapan yang tampaknya berbagi perspektif dan pengalaman pengguna.
”Sifat chatbot yang seperti percakapan dan layaknya teman berarti mereka dapat memberikan rasa validasi sosial, membuat keyakinan yang salah terasa seperti dibagikan dengan orang lain sehingga terasa lebih nyata,” ujarnya.
Makalah Osler meneliti contoh-contoh nyata sistem AI generatif yang menjadi bagian dari proses kognitif individu yang telah didiagnosis secara klinis mengalami halusinasi dan pemikiran delusi. Beberapa insiden ini semakin sering digambarkan sebagai kasus ”psikosis yang disebabkan oleh AI”.
Penelitian Osler menunjukkan AI generatif memiliki beberapa karakteristik yang mungkin membuatnya sangat efektif dalam memperkuat keyakinan yang menyimpang. Pendamping AI selalu tersedia, sangat personal, dan sering dirancang untuk merespons dengan cara yang menyenangkan dan mendukung.
Akibatnya, ujar Osler, pengguna mungkin tidak perlu mencari komunitas online yang terpencil atau membujuk orang lain untuk memvalidasi ide mereka. AI itu sendiri dapat memperkuat keyakinan tersebut selama percakapan berulang.
Tidak seperti orang lain yang mungkin pada akhirnya menantang pikiran-pikiran yang mengganggu atau menetapkan batasan, sistem AI dapat terus memvalidasi cerita-cerita yang melibatkan korban, balas dendam, atau hak istimewa. Studi ini memperingatkan bahwa teori konspirasi juga dapat menjadi lebih rumit ketika pendamping AI membantu pengguna membangun penjelasan yang semakin kompleks di seputar teori tersebut.
Osler mengatakan, dinamika manusia dapat mulai berhalusinasi dengan AI. Hal ini bisa menarik bagi orang-orang yang kesepian, terisolasi secara sosial, atau merasa tidak nyaman membicarakan pengalaman tertentu dengan orang lain. Pendamping AI dapat memberikan interaksi yang tidak menghakimi dan responsif secara emosional yang mungkin terasa lebih mudah atau lebih aman daripada hubungan antarmanusia.
Pentingnya kewaspadaan dan kesadaran dalam menggunakan chatbot juga diperkuat oleh ilmuwan dari John Hopkins University, Amerika Serikat. Chatbot disebut, selain berbagi informasi terbatas, tetapi juga memperkuat ideologi. Akibatnya dapat menyebabkan pemikiran yang lebih terpolarisasi dalam hal isu-isu kontroversial.
Penulis utama studi, Ziang Xiao, asisten profesor ilmu komputer di Johns Hopkins University yang mempelajari interaksi manusia-AI, mengatakan, studi ini menantang persepsi bahwa chatbot bersifat netral. Selain itu juga memberikan wawasan tentang penggunaan sistem pencarian percakapan dapat memperlebar jurang pemisah publik pada isu-isu sensitif dan membuat orang rentan terhadap manipulasi.
"Karena orang-orang membaca paragraf ringkasan yang dihasilkan oleh AI, mereka berpikir mereka mendapatkan jawaban yang tidak bias dan berdasarkan fakta. Meskipun chatbot tidak dirancang untuk bias, jawabannya mencerminkan bias atau kecenderungan orang yang mengajukan pertanyaan. Jadi sebenarnya, orang-orang mendapatkan jawaban yang ingin mereka dengar," jelas Xiao seperti dikutip dari laman sciencedaily.com.
Sebenarnya, orang-orang mendapatkan jawaban yang ingin mereka dengar.
Untuk melihat bagaimana chatbot memengaruhi pencarian online, tim Xiao membandingkan bagaimana orang berinteraksi dengan berbagai sistem pencarian dan bagaimana perasaan mereka tentang isu-isu kontroversial sebelum dan sesudah menggunakannya. Para peneliti meminta 272 peserta untuk menuliskan pemikiran mereka tentang berbagai topik, termasuk perawatan kesehatan, pinjaman mahasiswa, atau kota suaka.
Kemudian, peserta mencari informasi lebih lanjut secara daring tentang topik tersebut menggunakan chatbot atau mesin pencari tradisional yang dibuat untuk penelitian ini. Setelah mempertimbangkan hasil pencarian, peserta menulis esai kedua dan menjawab pertanyaan tentang topik tersebut.
Para peneliti juga meminta peserta untuk membaca dua artikel yang saling bertentangan. Peserta juga ditanya seberapa besar kepercayaan mereka terhadap informasi tersebut dan apakah mereka menganggap sudut pandang tersebut ekstrem.
Peneliti menemukan, chatbot menawarkan cakupan informasi yang lebih sempit daripada pencarian web tradisional dan memberikan jawaban yang mencerminkan sikap peserta sebelumnya. Akibatnya, peserta yang menggunakannya menjadi lebih terikat pada ide-ide awal mereka dan memiliki reaksi yang lebih kuat terhadap informasi yang berbeda dari pandangannya.
"Orang cenderung mencari informasi yang selaras dengan sudut pandang mereka, perilaku yang sering menjebak mereka dalam ruang gema opini yang serupa. Kami menemukan bahwa efek echo chamber atau ruang gema ini lebih kuat pada chatbot daripada pencarian web tradisional." kata Xiao.
Menurut Xiao, fenomena "ruang gema" sebagian berasal dari cara peserta berinteraksi dengan chatbot. Alih-alih mengetik kata kunci, seperti yang dilakukan orang pada mesin pencari tradisional, pengguna chatbot cenderung mengetik pertanyaan lengkap, seperti, "Apa manfaat perawatan kesehatan universal?" atau "Berapa biaya perawatan kesehatan universal?" Chatbot akan menjawab dengan ringkasan yang hanya mencakup manfaat atau biaya.
"Dengan chatbot, orang cenderung lebih ekspresif dan merumuskan pertanyaan dengan cara yang lebih komunikatif. Itu adalah fungsi dari cara kita berbicara. Tetapi bahasa kita dapat digunakan untuk melawan kita," kata Xiao.
Menurut Xiao, pengembang AI dapat melatih chatbot untuk mengekstrak petunjuk dari pertanyaan dan mengidentifikasi bias orang. Setelah chatbot mengetahui apa yang disukai atau tidak disukai seseorang, chatbot dapat menyesuaikan responsnya agar sesuai.
Untuk mencoba mengatasi efek ruang gema, para peneliti melatih chatbot untuk memberikan jawaban yang bertentangan dengan pendapat peserta. Hasilnya, pendapat orang-orang tidak berubah.
Para peneliti juga memprogram chatbot untuk menautkan ke informasi sumber untuk mendorong orang-orang melakukan pengecekan fakta, Namun, hanya sedikit peserta yang melakukannya.
"Mengingat sistem berbasis AI semakin mudah dibangun, akan ada peluang bagi pelaku kejahatan untuk memanfaatkan AI guna menciptakan masyarakat yang lebih terpolarisasi. Menciptakan agen yang selalu menyajikan opini dari pihak lain adalah intervensi yang paling jelas, tetapi kami menemukan bahwa hal itu tidak berhasil," kata Xiao.
Mengingat sistem berbasis AI semakin mudah dibangun, akan ada peluang bagi pelaku kejahatan untuk memanfaatkan AI guna menciptakan masyarakat yang lebih terpolarisasi.
Untuk mencegah orang berhalusinasi dengan AI, Osler menyarankan perlunya pengamanan yang lebih canggih, pengecekan fakta bawaan, dan pengurangan sikap menjilat. “Sistem AI dapat dirancang untuk meminimalkan jumlah kesalahan yang mereka timbulkan dalam percakapan dan untuk memeriksa serta menantang masukan pengguna sendiri,” kata Osler.
Osler menggarisbawahi, kekhawatiran yang lebih mendalam adalah bahwa sistem AI bergantung pada catatan kehidupan kita sendiri. Mereka sama sekali tidak memiliki pengalaman nyata dan keterkaitan sosial di dunia untuk mengetahui kapan mereka harus mengikuti kita dan kapan harus menolak.





