Terapis AI? Gagal, Sebuah Studi Baru Memperingatkan

Ditinjau secara medis oleh Carmen Pope, BPharm. Terakhir diperbarui pada 3 Maret 2026.

via HealthDay

SELAMAT, 3 Maret 2026 — Semakin banyak orang yang meminta bantuan chatbot kecerdasan buatan (AI) untuk mengatasi masalah sehari-hari, mulai dari stres pekerjaan hingga kekhawatiran dalam hubungan dan banyak lagi.

Sekarang, studi baru memperingatkan bahwa dalam hal nasihat kesehatan mental, sistem ini mungkin gagal.

Sebuah tim di Brown University di Providence, Rhode Island, menemukan bahwa meskipun sistem AI diminta untuk bertindak seperti terapis terlatih, sistem tersebut sering kali gagal memenuhi standar etika profesional.

Tim ini bekerja sama dengan pakar kesehatan mental untuk memeriksa bagaimana sistem ini merespons percakapan seperti konseling.

Studi mereka menguji serangkaian risiko etis untuk menunjukkan bagaimana konselor model bahasa besar (LLM) melanggar standar dalam praktik kesehatan mental.

Beberapa sistem AI utama, termasuk versi model GPT OpenAI, Claude dan Llama Meta, telah diuji.

Untuk penelitian ini, para peneliti meminta konselor sebaya terlatih untuk mengadakan sesi praktik terapi dengan AI, menggunakan petunjuk yang dirancang untuk membuat sistem bertindak seperti konselor terapi perilaku kognitif (CBT) atau terapi perilaku dialektis (DBT).

Tiga psikolog berlisensi kemudian meninjau respons AI.

Studi ini mengidentifikasi 15 risiko berbeda, yang dikelompokkan ke dalam lima area utama:

  • Konteks umum: AI sering mengabaikan latar belakang unik seseorang.
  • Kolaborasi yang buruk: Terkadang hal ini mengarahkan percakapan terlalu kuat atau memperkuat keyakinan yang berbahaya.
  • Empati yang menipu: AI menggunakan frasa seperti “Saya mengerti” tanpa benar-benar memahami emosi.
  • Bias: Beberapa respons menampilkan prasangka gender, agama, atau budaya.
  • Respon krisis yang lemah: Dalam beberapa kasus, chatbot salah menangani pemikiran untuk bunuh diri atau gagal memandu pengguna untuk mendapatkan bantuan yang tepat.
  • "Kami menyerukan upaya di masa depan untuk menciptakan standar etika, pendidikan, dan hukum bagi konselor LLM — standar yang mencerminkan kualitas dan ketelitian perawatan yang diperlukan untuk psikoterapi yang difasilitasi manusia," tulis peneliti.

    Peneliti utama Zainab Iftikhar, seorang kandidat doktor ilmu komputer di Brown, mengatakan bahwa perintah saja tidak cukup untuk membuat sistem AI aman untuk terapi.

    “Permintaan adalah instruksi yang diberikan kepada model untuk memandu perilakunya,” jelasnya. "Anda tidak mengubah model yang mendasarinya atau memberikan data baru, namun perintah tersebut membantu memandu keluaran model berdasarkan pengetahuan yang sudah ada sebelumnya dan pola yang dipelajari.

    Banyak orang berbagi perintah bergaya terapi di TikTok, Instagram, dan Reddit. Beberapa aplikasi kesehatan mental konsumen juga menggunakan teknik perintah ini untuk mendukung fitur chat AI.

    Iftikhar mencatat bahwa terapis manusia juga bisa melakukan kesalahan. Bedanya, katanya? Pengawasan.

    "Bagi terapis manusia, ada dewan pengatur dan mekanisme bagi penyedia layanan yang bertanggung jawab secara profesional atas penganiayaan dan malpraktik," kata Iftikhar dalam rilis berita. "Tetapi ketika konselor LLM melakukan pelanggaran ini, tidak ada kerangka peraturan yang ditetapkan."

    Para peneliti mengatakan alat AI masih dapat membantu memperluas akses terhadap dukungan kesehatan mental, terutama bagi orang-orang yang tidak mampu atau tidak dapat menemukan profesional berlisensi.

    Namun mereka menekankan bahwa diperlukan perlindungan yang lebih kuat sebelum mengandalkan sistem ini dalam situasi yang serius.

    “Jika Anda berbicara dengan chatbot tentang kesehatan mental, ini adalah beberapa hal yang harus diwaspadai,” kata Iftikhar.

    Ellie Pavlick, seorang profesor ilmu komputer di Brown yang tidak terlibat dalam penelitian ini, berbicara tentang perlunya bergerak dengan sengaja.

    “Kenyataan AI saat ini adalah membangun dan menerapkan sistem jauh lebih mudah dibandingkan mengevaluasi dan memahaminya,” katanya.

    "Ada peluang nyata bagi AI untuk berperan dalam memerangi krisis kesehatan mental yang dihadapi masyarakat kita, namun yang paling penting adalah kita meluangkan waktu untuk benar-benar mengkritik dan mengevaluasi sistem kita di setiap langkah agar tidak menimbulkan lebih banyak kerugian daripada manfaat," kata Pavlick. "Karya ini memberikan contoh bagus tentang seperti apa karya tersebut."

    Temuan dipresentasikan pada konferensi Asosiasi untuk Kemajuan Kecerdasan Buatan dan Asosiasi Mesin Komputasi.

    Penelitian yang dipresentasikan pada pertemuan dianggap pendahuluan sampai dipublikasikan dalam jurnal peer-review.

    Sumber

  • Brown University, rilis berita, 2 Maret 2026
  • Penafian: Data statistik dalam artikel medis memberikan tren umum dan tidak berkaitan dengan individu. Faktor individu bisa sangat bervariasi. Selalu mencari saran medis yang dipersonalisasi untuk keputusan perawatan kesehatan individu.

    Sumber: HealthDay

    Baca selengkapnya

    Penafian

    Segala upaya telah dilakukan untuk memastikan bahwa informasi yang diberikan oleh Drugslib.com akurat, terkini -tanggal, dan lengkap, namun tidak ada jaminan mengenai hal tersebut. Informasi obat yang terkandung di sini mungkin sensitif terhadap waktu. Informasi Drugslib.com telah dikumpulkan untuk digunakan oleh praktisi kesehatan dan konsumen di Amerika Serikat dan oleh karena itu Drugslib.com tidak menjamin bahwa penggunaan di luar Amerika Serikat adalah tepat, kecuali dinyatakan sebaliknya. Informasi obat Drugslib.com tidak mendukung obat, mendiagnosis pasien, atau merekomendasikan terapi. Informasi obat Drugslib.com adalah sumber informasi yang dirancang untuk membantu praktisi layanan kesehatan berlisensi dalam merawat pasien mereka dan/atau untuk melayani konsumen yang memandang layanan ini sebagai pelengkap, dan bukan pengganti, keahlian, keterampilan, pengetahuan, dan penilaian layanan kesehatan. praktisi.

    Tidak adanya peringatan untuk suatu obat atau kombinasi obat sama sekali tidak boleh ditafsirkan sebagai indikasi bahwa obat atau kombinasi obat tersebut aman, efektif, atau sesuai untuk pasien tertentu. Drugslib.com tidak bertanggung jawab atas segala aspek layanan kesehatan yang diberikan dengan bantuan informasi yang disediakan Drugslib.com. Informasi yang terkandung di sini tidak dimaksudkan untuk mencakup semua kemungkinan penggunaan, petunjuk, tindakan pencegahan, peringatan, interaksi obat, reaksi alergi, atau efek samping. Jika Anda memiliki pertanyaan tentang obat yang Anda konsumsi, tanyakan kepada dokter, perawat, atau apoteker Anda.

    Kata kunci populer