Bukan Sekadar Teman Curhat: Mengungkap Motif Tersembunyi di Balik Respons Chatbot AI

Bukan Sekadar Teman Curhat: Mengungkap Motif Tersembunyi di Balik Respons Chatbot AI

Bukan Sekadar Teman Curhat: Mengungkap Motif Tersembunyi di Balik Respons Chatbot AI

Saat ini, jutaan orang menggunakan chatbot AI seperti ChatGPT sebagai terapis, penasihat karier, atau sekadar teman curhat. Di tahun 2025, menjadi hal yang lumrah melihat orang-orang membagikan detail pribadi mereka ke chatbot dan mengandalkan nasihat yang diberikan. Seiring dengan semakin intensnya persaingan keterlibatan AI, perusahaan-perusahaan teknologi besar berupaya keras untuk mempertahankan pengguna di platform mereka, dan ini menimbulkan beberapa kekhawatiran serius.

Chatbot AI Memberi Tahu Apa yang Ingin Anda Dengar

Banyak perusahaan teknologi di Silicon Valley saat ini berfokus meningkatkan penggunaan chatbot. Meta mengklaim chatbot AI-nya telah mencapai lebih dari satu miliar pengguna aktif bulanan (MAU), sementara Gemini dari Google mencapai 400 juta MAU. Keduanya berusaha mengungguli ChatGPT, yang mendominasi pasar sejak 2022 dengan sekitar 600 juta MAU.

{getToc} $title={Table of Contents}

Chatbot AI kini menjadi bisnis besar. Google mulai menguji coba iklan di Gemini, dan CEO OpenAI, Sam Altman, juga membuka kemungkinan untuk "iklan yang sesuai."

Sejarah menunjukkan bahwa Silicon Valley sering kali mengabaikan kesejahteraan pengguna demi pertumbuhan produk, seperti yang terjadi pada media sosial. Misalnya, pada tahun 2020, peneliti Meta menemukan bahwa Instagram membuat gadis remaja merasa buruk tentang tubuh mereka, tetapi perusahaan itu meremehkan temuan tersebut.

Menciptakan ketergantungan pengguna pada chatbot AI bisa memiliki implikasi yang lebih besar.

Salah satu sifat yang membuat pengguna bertahan di platform chatbot tertentu adalah sifat sanjung (sycophancy): membuat respons AI yang terlalu setuju dan melayani. Ketika chatbot memuji, menyetujui, dan mengatakan apa yang ingin didengar pengguna, mereka cenderung menyukainya.


Pada April 2025, OpenAI mendapat kritik karena pembaruan ChatGPT yang menjadi sangat menyanjung, bahkan sampai contoh-contohnya menjadi viral. Menurut mantan peneliti OpenAI, Steven Adler, OpenAI terlalu mengoptimalkan respons untuk mendapatkan persetujuan manusia daripada membantu pengguna menyelesaikan tugas.

OpenAI mengakui bahwa mereka mungkin terlalu mengandalkan data "jempol ke atas dan jempol ke bawah" dari pengguna dan tidak memiliki evaluasi yang cukup untuk mengukur sifat menyanjung ini. Setelah insiden itu, OpenAI berjanji akan melakukan perubahan untuk mengatasinya.

Bahaya dari Bot AI yang Selalu Menyetujui

Mengoptimalkan chatbot AI untuk keterlibatan pengguna, baik disengaja maupun tidak, bisa memiliki konsekuensi buruk bagi kesehatan mental.

Dr. Nina Vasan, seorang profesor psikiatri klinis di Universitas Stanford, menjelaskan bahwa "sifat setuju... menyentuh keinginan pengguna untuk divalidasi dan terhubung," yang sangat kuat saat seseorang merasa kesepian atau tertekan.

Meskipun kasus Character.AI menunjukkan bahaya ekstrem dari sifat menyanjung bagi pengguna yang rentan, Vasan mengatakan sifat ini juga dapat memperkuat perilaku negatif pada siapa saja. "Sifat setuju bukan hanya pelumas sosial, tetapi menjadi pengait psikologis," tambahnya. "Dalam konteks terapi, ini adalah kebalikan dari perawatan yang baik."

Amanda Askell dari Anthropic mengatakan bahwa membuat chatbot mereka, Claude, terkadang tidak setuju dengan pengguna adalah bagian dari strategi perusahaan. "Kami menganggap teman itu baik karena mereka mengatakan kebenaran saat kita membutuhkannya," kata Askell. "Mereka tidak hanya mencoba menarik perhatian kita, tetapi juga memperkaya hidup kita."

Namun, penelitian menunjukkan bahwa memerangi sifat menyanjung dan mengendalikan perilaku model AI secara umum sangat menantang, terutama ketika ada pertimbangan lain yang menghalangi. Ini menimbulkan pertanyaan penting bagi pengguna: jika chatbot dirancang hanya untuk menyetujui kita, seberapa besar kita bisa memercayainya?

Posting Komentar

Lebih baru Lebih lama