Saat Ringkasan AI Google Keliru soal Tahun 2026

kompas.id
17 jam lalu
Cover Berita

Ketika warga dunia merayakan Tahun Baru 2026, ringkasan AI Google malah keliru dengan menyebut 2026 adalah tahun depan. Kondisi ini tidak hanya mengundang banyak komentar warganet, termasuk Elon Musk, tetapi juga menjadi alarm bahwa akal imitasi juga rentan salah.

Pada Selasa (6/1/2026), salah seorang pengguna platform media sosial X mengunggah tangkapan layar yang berisi kekeliruan AI Google atau Google AI Overview. Dalam unggahan itu, pengguna bertanya kepada Google, ”Apakah tahun depan adalah 2027?”

Ringkasan AI Google kemudian menjawab, ”Tidak, 2027 bukan tahun depan. 2026 adalah tahun depan dan 2027 akan menjadi tahun depan”. Tahun 2027 juga disebut dimulai pada Jumat sesuai kalender Gregorian. Padahal, tahun ini adalah 2026 yang dimulai pada Kamis atau 1 Januari.

Unggahan soal kekeliruan jawaban ringkasan AI Google itu pun ramai dibicarakan di X. Hingga Kamis (8/1/2026) siang, cuitan itu telah ditayangkan 40 juta kali dengan 330 unggahan ulang, 180 kutipan komentar, dan 4.421 tanda suka (gambar hati). Pemilik X, Elon Musk, pun ikut berkomentar.

Melalui cuitan singkatnya, Elon menyiratkan perlunya perbaikan (room for improvement). Unggahan itu telah ditayangkan 40 juta kali dengan ribuan unggahan ulang, 165.000 lebih tanda suka, serta 6.392 markah atau fitur penyimpan (bookmark). Ragam komentar pun bermunculan.

Candaan pun bermunculan, mulai dari dugaan Google sedang kelelahan hingga sorotan terhadap ironi ketakutan manusia digantikan mesin. Warganet heran mengapa orang takut kehilangan pekerjaan karena AI jika teknologi itu saja gagal menebak tahun. Tak hanya Google, sindiran juga tertuju pada Grok, chatbot AI milik X.

Baca JugaGoogle Pasang AI di Mesin Pencari, Revolusi Pola Bisnis Internet

Saat ditanyakan soal serupa, Grok memberikan jawaban membingungkan. Chatbot ini mengatakan, tahun depan bukan 2027, tetapi saat ini adalah Januari 2026. Namun, dalam jawaban selanjutnya, Grok mengakui terjadi kekeliruan dan menjawab bahwa tahun depan adalah 2027.

Ketika dicek lagi, Google telah membenahi jawabannya dengan mengatakan 2027 adalah tahun depan. Terlepas dari perbaikan chatbot AI ini, kekeliruan ringkasan AI Google dalam menerka tahun telah mengundang pertanyaan tentang akurasi dan kebenaran informasi dari AI.

Feris Thia, Co-Founder Xeratic, perusahaan terkait data dan perangkat lunak, menilai, kekeliruan ringkasan AI Google dalam menerka angka tahun karena cara kerjanya berdasarkan model bahasa besar (LLM). Model ini bersifat melengkapi atau memprediksi kata yang bakal muncul.

Model ini tidak memiliki kemampuan menghitung, bahkan urutan tahun di kalender. ”Karena itu, memakai model LLM untuk hitung-hitungan atau matematika, pasti akan terjadi kesalahan karena model ini memprediksi atau melengkapi kata selanjutnya,” ujar Feris, Kamis, di Jakarta.

Itu sebabnya, ia tidak menyarankan pengguna memakai AI untuk hitung-hitungan, termasuk memprediksi harga saham tiga bulan ke depan. ”Namun, kalau kita meminta AI menunjukkan kumpulan data atau informasi saham sebelumnya dan polanya, AI memberikannya,” ujarnya.

Kekeliruan ringkasan AI Google juga bisa terjadi sesuai dengan data atau bahan yang diberikan untuk pelatihan. Dalam kasus menebak tahun, jika data yang lebih banyak digunakan adalah 2025, kemungkinan AI menyebut tahun depan adalah 2026. Padahal, hal itu keliru.

”Kesalahan inilah yang disebut halusinasi AI. Perlu diingat, setiap model AI memiliki bahan pelatihan berbeda sehingga hasilnya juga akan beda. Jika ingin memanfaatkan AI untuk hitung-hitungan, disarankan menggunakan model yang lebih khusus, bukan LLM,” ungkap Feris.

Kesalahan berulang

Kesalahan ringkasan AI Google dalam menjawab pertanyaan pengguna telah berulang kali terjadi, bahkan sejak dirilis pada Mei 2024 di Amerika Serikat. Rhiannon Williams, penulis di Massachusetts Institute of Technology (MIT) Technology Review, mengungkapkan beberapa kasus.

Produk AI ini, misalnya, sempat menyarankan agar pengguna menambahkan lem pada piza atau memakan setidaknya satu batu kecil per hari. Bahkan, chatbot ini menyebut mantan Presiden AS Andrew Johnson, yang wafat pada 1875, memperoleh gelar universitas antara 1947 dan 2012.

Baca JugaPemanfaatan AI dalam Layanan Kesehatan Terkendala

Laporan The Guardian pada 2 Januari 2026 juga memaparkan sejumlah ringkasan AI yang salah soal isu kesehatan, bahkan membahayakan. Salah satunya soal saran agar penderita kanker pankreas menghindari makanan berlemak tinggi. Padahal, mereka juga membutuhkan sumber kalori.

Anna Jewell, Director of Support, Research, and Influencing Pancreatic Cancer UK, mengatakan, menyarankan pasien untuk menghindari makanan berlemak tinggi adalah keliru. Bahkan, bisa sangat berbahaya bagi seseorang yang tengah menjalani pengobatan.

”Jika seseorang mengikuti apa yang disampaikan hasil pencarian itu, mereka mungkin tidak mengonsumsi kalori yang cukup, kesulitan menambah berat badan, dan tidak mampu menjalani kemoterapi, atau bahkan operasi yang berpotensi menyelamatkan nyawa,” ujar Jewell, dikutip The Guardian.

Jika informasi yang mereka terima tidak akurat atau lepas dari konteks, hal itu dapat sangat membahayakan kesehatan mereka.

Informasi keliru dari ringkasan AI ini berbahaya karena penempatannya berada paling atas di mesin pencari Google sehingga kemungkinannya untuk dibaca sangat besar. Pada saat yang sama, pembaca kini mencari sumber informasi yang lebih ringkas.

Stephanie Parker, Direktur Digital di Marie Curie, lembaga amal, mengatakan, orang-orang kini beralih ke internet pada saat penuh kecemasan dan krisis. ”Jika informasi yang mereka terima tidak akurat atau lepas dari konteks, hal itu dapat sangat membahayakan kesehatan mereka,” ujarnya.

Terkait laporan The Guardian, Google menyatakan, sebagian besar AI Overview bersifat faktual dan membantu. Perusahaan pun terus melakukan peningkatan kualitas. Ketika fitur ini salah menafsirkan konten web atau kehilangan konteks, Google akan mengambil tindakan yang sesuai dengan kebijakannya.

​”Kami berinvestasi besar dalam kualitas AI Overview, khususnya untuk topik seperti kesehatan, dan sebagian besar ringkasan tersebut memberikan informasi yang akurat,” ujar seorang juru bicara Google, seperti dilaporkan media asal Inggris ini.

Meski demikian, Suzan Verberne, profesor di Leiden University yang berspesialisasi dalam pemrosesan bahasa alami, menilai bahwa AI masih berpotensi berhalusinasi karena sistemnya memprediksi kata selanjutnya sesuai cara kerja model bahasa besar. Percakapan berisi candaan di media sosial hingga penelitian pun bisa menjadi sumber chatbot AI.

​Kekeliruan juga rentan terjadi jika topiknya spesifik. ”Semakin spesifik suatu topik, semakin tinggi peluang munculnya misinformasi dalam hasil LLM. Ini tidak hanya menjadi masalah di ranah medis, tetapi juga di pendidikan dan sains,” ungkap Suzan di MIT Technology Review.

Baca JugaAI Kerap Salah, Bohong,  dan Otaknya Membusuk

Kesalahan dalam memberi jawaban tidak hanya terjadi di Google AI Overview, tetapi juga chatbot AI yang menggunakan model LLM. Penelitian Persatuan Penyiaran Eropa (EBU) dan lembaga penyiaran publik Inggris, BBC, yang dirilis akhir Oktober 2025 mengungkapkan hal itu.

Penelitian tersebut mengkaji 3.000 jawaban AI dalam 14 bahasa mengenai beragam topik. Beberapa program AI yang diuji adalah Gemini, ChatGPT, Copilot, dan Perplexity. Hasilnya, 81 persen jawaban dari AI salah. Kekeliruan itu, antara lain, terkait Pemimpin Tertinggi Gereja Katolik Roma yang masih dijabat Paus Fransiskus.

Padahal, Paus Fransiskus telah wafat pada Mei 2025 dan digantikan Paus Leo XIV. Ada juga informasi tentang terbitnya undang-undang rokok elektrik di Eropa. Padahal, aturan itu tidak ada. Informasi yang diberikan AI ini tidak diperbarui, bahkan terkesan mengada-ada.

Kemampuan AI meringkas atau memberikan jawaban atas pertanyaan memang membantu pengguna. Namun, pengguna juga sebaiknya tidak menelan mentah-mentah informasi yang disajikan, tetapi juga mengeceknya ke media tepercaya. Ingat, AI pun bisa salah menerka tahun 2026.



Artikel Asli

Berikan komentar Anda
Lanjut baca:

thumb
Roster Kesatria Bengawan Solo untuk IBL 2026
• 11 jam laluantaranews.com
thumb
Tak Hanya Pasal Korupsi, KPK Didesak Jerat Yaqut dengan TPPU
• 13 jam lalumetrotvnews.com
thumb
Pengamat Nilai Pemerintah Serius Tangani Bencana di Sumatra
• 8 jam lalukatadata.co.id
thumb
Yaqut Cholil Qoumas Tersangka Kasus Kuota Haji!
• 17 jam lalujpnn.com
thumb
Terkait Ramainya Kasus Peredaran Miras, Satpol PP Kota Madiun Tegaskan THM Tak Berizin Akan Ditutup
• 18 jam lalurealita.co
Berhasil disimpan.