Chatbot (ilustrasi). Jawaban dari chatbot Al sering kali tidak lengkap, menyesatkan, bahkan berpotensi membahayakan.
REPUBLIKA.CO.ID, JAKARTA -- Chatbot sering dianggap menjadi ruang nyaman untuk mencurahkan isi hati hingga meminta saran kesehatan. Namun, sebuah studi terbaru mengungkap bahwa jawaban dari chatbot Al sering kali tidak lengkap, menyesatkan, bahkan berpotensi membahayakan.
Penelitian yang dipublikasikan di jurnal BMJ Open ini menguji sejumlah chatbot populer, termasuk ChatGPT, Gemini, Meta Al, DeepSeek, dan Grok. Para peneliti dari Lundquist Institute for Biomedical Innovation di Harbor-UCLA Medical Center mengevaluasi bagaimana sistem tersebut merespons pertanyaan kesehatan umum yang kerap dicari masyarakat.
Hasilnya menunjukkan hampir setengah dari respons chatbot tergolong bermasalah. Sekitar 30 persen dinilai cukup bermasalah karena kurang memberikan konteks yang memadai, sementara 19,6 persen lainnya masuk kategori sangat bermasalah karena mengandung informasi yang tidak akurat atau menyesatkan.
Penulis utama studi, Nicholas Tiller, mengatakan pertanyaan yang diajukan dalam penelitian dirancang menyerupai cara masyarakat mencari informasi secara daring. Menurut pengamatannya, jawaban chatbot juga kerap jadi ruang validasi, terlepas dari benar atau tidaknya.
"Jika sejak awal pengguna sudah percaya bahwa susu mentah itu bermanfaat, biasanya pertanyaan yang dia ajukan mengarah ke situ. Jawaban chatbot pun cenderung mengikuti arah pertanyaan tersebut," kata Tiller dilansir laman US News, Kamis (23/4/2026).
Topik yang diuji dalam studi mencakup isu-isu yang rentan terhadap misinformasi, seperti kanker, vaksin, serta klaim bahwa teknologi 5G atau penggunaan antiperspiran dapat menyebabkan kanker. Meski banyak chatbot memberikan peringatan yang tepat, sebagian di antaranya tetap menyertakan ide-ide berisiko.

8 hours ago
4

















































