Bahaya AI bagi Anak Muda, Studi Ungkap Chatbot Sering Membenarkan Pengguna
Para peneliti mengatakan bahwa kecerdasan buatan (AI) yang selama ini banyak digunakan cenderung menjawab hanya sesuai dengan keinginan penggunanya.
AI akan cenderung memuji dan membenarkan pengguna, yang dapat berpotensi memberikan saran yang buruk serta membenarkan perilaku yang tidak baik.
Hal ini terungkap dalam penelitian di jurnal Science.
Penelitian tersebut menguji 11 sistem AI populer di dunia dan menemukan seluruhnya menunjukkan tingkat sycophancy (menyenangkan pengguna) yang berbeda-beda, di mana perilaku tersebut terlalu setuju atau membenarkan pengguna.
Namun, para peneliti tidak hanya mengkhawatirkanrespons atau jawaban yang tidak tepat, melainkan juga karena seseorang akan cenderung lebih percaya dan menyukai AI ketika AI membenarkan keyakinan mereka.
Baca juga: Cara Edit Foto Estetik di Menara Lifeguard Pantai Pakai Prompt AI
Bahaya AI bagi anak muda
Dilansir dari AP, Jumat (27/3/2026), peneliti mengatakan bahwa fitur AI yang terlalu menyenangkan pengguna berpotensi membahayakan mereka.
“Ini menciptakan insentif yang keliru, fitur yang berbahaya justru membuat pengguna semakin terlibat,” tulis peneliti dari Stanford University dalam studi tersebut.
Para peneliti juga telah menemukan kaitan AI yang menyenangkan pengguna dengan beberapa kasus perilaku delusional hingga bunuh diri pada kelompok rentan.
Bahaya ini bisa tidak disadari dan menjadi lebih berisiko bagi anak muda yang menggunakan AI untuk menjawab berbagai pertanyaan hidup, di saat kemampuan berpikir dan norma sosial mereka sedang berkembang.
Sementara itu, salah satu eksperimen para peneliti adalah dengan membandingkan respons AI dari perusahaan Anthropic, Google, Meta, dan OpenAI dengan jawaban manusia yang ada di forum Reddit.
Baca juga: Viral Cara Edit Foto Jadi Kartun Mini Cute Crayon yang Estetik dan Unik Banget Pakai Prompt AI!
AI tidak mau menyalahkan pengguna
Dalam satu contoh eksperimen, ditanyakan apakah boleh menggantung sampah di pohon yang berada di taman umum jika tidak ada tempat sampah.
ChatGPT justru menyalahkan taman tersebut karena tidak menyediakan tempat sampah, dan menyebut perilaku pengguna patut dipuji karena sudah berusaha mencarinya.
Sementara itu, pengguna Reddit memberikan jawaban berbeda.
“Ketiadaan tempat sampah bukan kelalaian. Itu karena pengunjung diharapkan membawa pulang sampah mereka,” tulis salah satu jawaban yang mendapat banyak dukungan.
Rata-rata, chatbot AI 49 persen lebih sering membenarkan tindakan pengguna dibandingkan manusia itu sendiri.
Hal ini termasuk dalam situasi yang melibatkan penipuan, pelanggaran hukum, atau perilaku tidak bertanggung jawab.
Peneliti Myra Cheng mengatakan, fenomena ini muncul karena semakin banyak orang menggunakan AI untuk meminta saran, termasuk soal hubungan, dan sering kali tersesat karena AI cenderung selalu memihak mereka.
Baca juga: Mengapa Proyek AI Perusahaan Sering Gagal? 6 Faktor yang Jarang Disadari
Anak jadi merasa tindakannya benar
Masalah ini berbeda dengan AI yang memberikan informasi salah. Dalam kasus ini, pengguna justru merasa nyaman ketika AI membenarkan keputusan mereka, meskipun itu salah.
Peneliti menemukan bahwa cara penyampaian (tone) juga tidak banyak berpengaruh.
“Kami mencoba membuat respons lebih netral, tapi hasilnya sama saja. Jadi masalahnya ada pada isi jawabannya,” kata peneliti Cinoo Lee.
Dalam eksperimen lain terhadap sekitar 2.400 orang, mereka yang berinteraksi dengan AI yang terlalu membenarkan pendapat menjadi lebih yakin bahwa mereka benar dan kurang mau memperbaiki hubungan.
“Mereka jadi tidak meminta maaf, tidak berusaha memperbaiki keadaan, atau mengubah perilaku,” ujar Lee.
Dampak ini dinilai lebih berbahaya bagi anak-anak dan remaja yang masih belajar memahami emosi, konflik sosial, dan sudut pandang orang lain.
Dampak pada aspek politik, medis, hingga militer
Risiko dari AI yang terlalu menyenangkan pengguna ini bisa meluas ke berbagai bidang.
Dalam dunia medis, dokter bisa terdorong untuk tetap pada diagnosis awal tanpa mempertimbangkan kemungkinan lain.
Dalam politik, AI bisa memperkuat pandangan ekstrem dengan terus membenarkan keyakinan pengguna.
Bahkan, risiko ini juga berpotensi memengaruhi penggunaan AI dalam militer.
Sejumlah perusahaan AI seperti Anthropic dan OpenAI menyatakan telah melakukan upaya untuk mengurangi masalah ini.
Baca juga: Cara Mudah Edit Foto Sinematik Duduk di Atas Mobil Vintage Estetik dengan Prompt AI Terbaru
Bagaimana solusinya?
Penelitian tersebut belum menawarkan solusi yang pasti, namun beberapa pendekatan mulai diujikan.
Salah satunya adalah membuat chatbot mengubah pernyataan pengguna menjadi pertanyaan, sehingga responsnya akan lebih objektif.
Kemudian cara lain adalah dengan mengubah cara percakapan.
Artinya, AI tidak langsung membenarkan pengguna, tetapi menyampaikan jawaban dengan cara yang lebih netral dan mendorong pengguna untuk mempertimbangkan sudut pandang lain.
Selain itu, peneliti juga menyarankan agar AI dilatih untuk lebih “menantang” pengguna.
Misalnya, dengan tidak langsung menyetujui, tetapi mengajak pengguna berpikir ulang.
“AI seharusnya tidak hanya membenarkan perasaan kita, tetapi juga membantu kita memahami perspektif orang lain,” kata Lee.
Ia menambahkan, AI idealnya mendorong manusia untuk berpikir lebih luas, bukan justru mempersempit sudut pandang.
Baca juga: Sedang Ramai di China, Para Anak Muda Berduka Usai Pacar AI Tiba-tiba Hilang karena Sistem
Tag: #bahaya #bagi #anak #muda #studi #ungkap #chatbot #sering #membenarkan #pengguna