Di ruang-ruang sunyi, jauh sebelum pasien bertemu dokter, percakapan pertama tentang gejala penyakit kini sering terjadi di layar ponsel. “Kenapa dada saya nyeri?” “Apakah ini tanda diabetes?” Pertanyaan-pertanyaan itu semakin sering diarahkan ke chatbot berbasis kecerdasan buatan.
Pada Januari 2026 lalu, OpenAI meluncurkan fitur "Kesehatan" ChatGPT kepada khalayak terbatas. Chatbot ini dipromosikan sebagai cara pengguna "menghubungkan catatan medis dan aplikasi kesehatan secara aman" untuk menghasilkan saran dan respons kesehatan. Lebih dari 40 juta orang meminta saran terkait kesehatan pada ChatGPT tiap hari.
Fenomena ini mendorong para peneliti dari University of Birmingham memimpin inisiatif global untuk menyusun panduan keselamatan pertama di dunia bagi publik dalam menggunakan chatbot kesehatan berbasis kecerdasan buatan atau AI.
Inisiatif tersebut diumumkan dalam laporan yang diterbitkan di jurnal Nature Health pada 19 Februari 2026. Kini, kini tim proyek mengundang partisipasi publik untuk membantu merumuskan pedoman tersebut.
Upaya ini dirancang sebagai “Panduan Pengguna Chatbot Kesehatan”, sebuah sumber daya yang menawarkan pendekatan pragmatis dan netral, dengan tujuan utama mengurangi risiko sekaligus memaksimalkan manfaat teknologi AI bagi masyarakat.
Kemunculan model bahasa besar (LLM) seperti ChatGPT, Copilot, Claude, dan Gemini mengubah cara orang mencari informasi. Jutaan pengguna di seluruh dunia memanfaatkan chatbot ini untuk menerjemahkan istilah medis, memahami hasil laboratorium, bahkan menafsirkan gejala.
Bagi sebagian orang, chatbot menjadi “opini pertama” yang paling mudah diakses. Ia bisa lebih cepat daripada membuat janji konsultasi dan tanpa biaya. Namun di balik kemudahan itu, terdapat ruang abu-abu tata kelola.
Tujuan kami bukan menghambat inovasi, melainkan memastikan masyarakat memiliki alat dan pemahaman untuk menggunakan teknologi ini dengan aman.
Joseph Alderman, Dosen Klinis dari National Institute for Health and Care Research di Universitas Birmingham dan penulis utama makalah tersebut, menegaskan, penggunaan chatbot untuk kesehatan bukan lagi kemungkinan masa depan, melainkan realitas hari ini.
“Tujuan kami bukan menghambat inovasi, melainkan memastikan masyarakat memiliki alat dan pemahaman untuk menggunakan teknologi ini dengan aman,” tuturnya dalam makalah itu.
Dalam laporan ini, tim, yang juga melibatkan peneliti dari University Hospitals Birmingham NHS Foundation Trust dan NIHR Birmingham Biomedical Research Centre, menyoroti sejumlah risiko substansial dalam penggunaan chatbot kesehatan.
Risiko pertama terkait ketidakakuratan medis (medical inaccuracies). Chatbot dapat menghasilkan jawaban yang terdengar masuk akal tetapi keliru secara faktual. Fenomena ini sering disebut sebagai “halusinasi AI”. Dalam konteks kesehatan, kesalahan ini bisa berimplikasi serius.
Kedua, efek ruang gema (echo chamber effect). Model AI cenderung dirancang untuk respons yang menyenangkan atau menyetujui pengguna. Akibatnya, chatbot bisa memperkuat keyakinan yang sudah ada, termasuk hal yang salah, alih-alih memberikan koreksi berbasis bukti.
Ketiga, bias algoritmik. Data pelatihan yang tidak representatif dapat memperkuat bias sosial, yang pada akhirnya memperlebar ketimpangan kesehatan, terutama bagi kelompok minoritas atau kurang terlayani.
Keempat, privasi dan keamanan data. Informasi kesehatan merupakan data sensitif. Tanpa literasi digital yang memadai, pengguna berisiko membagikan detail pribadi yang dapat disalahgunakan.
Risiko-risiko ini sejalan dengan peringatan dari Organisasi Kesehatan Dunia (WHO), yang dalam pedoman etika AI untuk kesehatan menekankan pentingnya transparansi, akuntabilitas, dan perlindungan data dalam pengembangan serta penggunaan teknologi AI medis.
Sebuah studi tentang "AI ChatGPT Health" telah menemukan bahwa platform ini seringkali gagal mendeteksi kebutuhan perawatan medis darurat dan kerap tak bisa mendeteksi ide bunuh diri. Para ahli khawatir hal ini berpotensi menyebabkan bahaya dan kematian yang tidak perlu.
Evaluasi keamanan independen pertama ChatGPT Health, yang diterbitkan dalam edisi Februari jurnal Nature Medicine, menemukan bahwa platform ini kurang tepat dalam mengidentifikasi lebih dari setengah kasus yang diajukan kepadanya.
Penulis utama studi itu, Ashwin Ramaswamy dari Ichan School of Medicine di Mount Sinai and Mount Sinai Health System, menuturkan, "Kami ingin menjawab pertanyaan keamanan mendasar; jika seseorang mengalami darurat medis dan bertanya ke ChatGPT Health apa yang harus dilakukan, apa platform ini menyuruh pergi ke unit gawat darurat?"
Hasilnya menunjukkan, dalam 51,6 persen kasus di mana seseorang perlu segera pergi ke rumah sakit, platform tersebut menyarankan untuk tetap di rumah atau membuat janji temu medis rutin, sebuah hasil yang "sangat berbahaya".
Jika seseorang mengalami gagal napas atau ketoasidosis diabetik, kita memiliki peluang 50/50 bahwa AI ini akan mengatakan bahwa itu bukan masalah besar.
Para peneliti juga mengkhawatirkan rasa aman palsu yang diciptakan oleh sistem ChatGPT Health. Jika seseorang disuruh menunggu 48 jam selama serangan asma atau krisis diabetes, jaminan itu bisa merenggut nyawa mereka.
Bahaya AI makin serius jika dipakai pengguna dengan masalah kesehatan mental. Di Connecticut, Amerika Serikat, saat ini berlangsung gugatan kematian salah (wrongful death lawsuit) yang diajukan setelah ChatGPT diduga menguatkan delusi paranoid seorang pria pada ibunya, sehingga ia membunuh ibunya lalu bunuh diri.
Gugatan tersebut menuduh bahwa AI memperkuat keyakinannya yang keliru, seperti konspirasi, tanpa mendorongnya mencari bantuan mental profesional. Chatbot dituduh secara tidak langsung berkontribusi terhadap tragedi tersebut.
Sekalipun rentan memicu masalah, keberadaan chatbot kesehatan kesehatan tidak bisa dinafikan. Charlotte Blease, peneliti AI kesehatan dari Uppsala University dan Harvard Medical School serta penulis buku Dr. Bot, kini menyebut chatbot kesehatan kini sebagai “opini pertama paling mudah diakses di dunia”.
“Seringkali pasien berbicara dengan chatbot sebelum konsultasi dengan dokter. Bahaya muncul ketika percakapan pertama dilakukan tanpa peta. Tanggung jawab kita yakni memastikan percakapan tersebut memberi informasi yang memberdayakan, bukan menyesatkan,” ujarnya
Beberapa tahun terakhir, studi-studi independen menunjukkan performa chatbot dalam menjawab pertanyaan medis bisa amat bervariasi, dari akurat hingga menyesatkan.
Sebagian riset menemukan bahwa model AI mampu menjelaskan konsep medis kompleks dengan bahasa yang lebih mudah dipahami dibandingkan teks akademik. Namun penelitian lain juga mendokumentasikan contoh jawaban keliru terkait diagnosis atau dosis obat.
Di sinilah urgensi panduan keselamatan bagi pengguna menjadi urgen. Ini jelas bukan untuk melarang penggunaan, melainkan untuk membekali pengguna dengan literasi kritis.
Menariknya, panduan ini tidak hanya disusun akademisi dan profesional kesehatan. Proyek ini melibatkan lebih dari 20 institusi global dan secara aktif menggandeng publik. Tiga peneliti publik dan satu kelompok pengarah publik diberi mandat untuk membantu menentukan arah program.
Pendekatan ini bertujuan memastikan panduan akhir dapat diakses oleh berbagai kelompok usia dan tingkat literasi, dari remaja digital-native hingga warga lanjut usia atau lansia yang baru mengenal teknologi.
Alih-alih sekadar daftar larangan, panduan ini direncanakan menjadi peta praktis: kapan chatbot dapat digunakan sebagai sumber informasi awal, kapan harus segera mencari pertolongan medis langsung, bagaimana memverifikasi informasi, serta bagaimana melindungi data pribadi.
Lonjakan penggunaan AI dalam kesehatan adalah bagian dari transformasi digital lebih luas. Pengobatan jarak jauh atau telemedik, rekam medis elektronik, dan aplikasi pemantauan kesehatan lebih dulu mengubah lanskap layanan medis. Chatbot berbasis AI adalah fase berikutnya karena bisa lebih personal, lebih instan, tetapi juga lebih ambigu batasnya.
Inisiatif dari Universitas Birmingham ini menandai pengakuan penting: teknologi tidak bisa lagi dipisahkan dari perilaku kesehatan masyarakat. Jika AI sudah menjadi bagian dari praktik sehari-hari, maka keselamatan publik harus menyertainya.





