
Perdebatan soal kecenderungan chatbot AI yang terlalu “menyenangkan” pengguna atau dikenal sebagai AI sycophancy kian mengkhawatirkan. Kini, sebuah studi terbaru dari ilmuwan komputer Stanford University mencoba mengukur seberapa berbahaya kecenderungan tersebut.
Studi berjudul “Sycophantic AI decreases prosocial intentions and promotes dependence” yang dipublikasikan di jurnal Science menyimpulkan bahwa fenomena ini bukan sekadar soal gaya komunikasi, melainkan perilaku umum yang berpotensi menimbulkan dampak luas.
Menurut laporan terbaru Pew, sekitar 12 persen remaja di Amerika Serikat mengaku menggunakan chatbot untuk dukungan emosional atau meminta nasihat. Penulis utama studi, Myra Cheng, mengaku mulai tertarik meneliti topik ini setelah mengetahui mahasiswa menggunakan chatbot untuk meminta saran hubungan hingga membuat pesan putus cinta.
“Secara default, AI tidak akan mengatakan bahwa seseorang salah atau memberikan ‘kritik keras’,” ujar Cheng, dikutip TechCrunch. “Saya khawatir orang akan kehilangan kemampuan menghadapi situasi sosial yang sulit.”
Penelitian ini terdiri dari dua bagian. Di bagian pertama, peneliti menguji 11 large language model, termasuk ChatGPT, Claude, Gemini, dan DeepSeek. Mereka memasukkan berbagai pertanyaan, mulai dari nasihat hubungan, tindakan berpotensi berbahaya atau ilegal, hingga kasus dari forum Reddit r/AmITheAsshole.
Hasilnya, jawaban AI cenderung membenarkan perilaku pengguna (49%) dibanding manusia. Dalam kasus dari Reddit, di mana pengguna sebenarnya dinilai bersalah oleh komunitas, AI tetap membenarkan perilaku tersebut dalam 51 persen kasus. Sementara untuk pertanyaan terkait tindakan berbahaya atau ilegal, AI membenarkan pengguna dalam 47 persen kasus.

Sebagai contoh, seorang pengguna bertanya apakah ia salah karena berpura-pura menganggur selama dua tahun kepada pacarnya. AI justru menjawab bahwa tindakan tersebut mungkin berasal dari keinginan tulus untuk memahami hubungan secara lebih dalam.
Di bagian kedua, peneliti melibatkan lebih dari 2.400 partisipan untuk berinteraksi dengan chatbot, baik yang bersifat menyenangkan maupun yang lebih objektif. Hasilnya, peserta cenderung lebih menyukai dan mempercayai AI yang membenarkan keinginan mereka. Mereka juga lebih mungkin kembali meminta saran dari model tersebut.
Namun, ada konsekuensi serius. Interaksi dengan AI yang terlalu menyetujui pengguna membuat mereka semakin yakin bahwa mereka benar, serta mengurangi kecenderungan untuk meminta maaf.
Profesor linguistik dan ilmu komputer, Dan Jurafsky, menyebut temuan ini cukup mengkhawatirkan. Meski pengguna sadar AI kerap bersikap menyenangkan, mereka tidak menyadari dampaknya.
“Yang mengejutkan adalah, sikap ini membuat pengguna menjadi lebih egois dan lebih kaku secara moral,” ujarnya.
Peneliti menilai fenomena ini sebagai isu keamanan yang perlu diawasi dan diatur. Pasalnya, ada insentif bagi perusahaan AI untuk mempertahankan perilaku ini, karena justru meningkatkan keterlibatan pengguna.
Saat ini, tim peneliti tengah mencari cara untuk mengurangi kecenderungan tersebut. Salah satu trik sederhana yang ditemukan adalah memulai prompt dengan kalimat seperti tunggu sebentar. Kendati begitu, Cheng menegaskan bahwa untuk saat ini, AI sebaiknya tidak dijadikan pengganti manusia dalam urusan emosional atau sosial.
“Saran terbaik saat ini adalah, jangan gunakan AI sebagai pengganti manusia untuk hal-hal seperti ini,” ujarnya.