AI 치료사? 새로운 연구에서는 부족하다고 경고합니다

Carmen Pope, BPharm의 의학 검토. 2026년 3월 3일에 마지막으로 업데이트되었습니다.

HealthDay를 통해

2026년 3월 3일 화요일 — 업무 스트레스부터 관계 걱정까지 일상적인 문제에 대해 인공지능(AI) 챗봇에 도움을 요청하는 사람들이 늘어나고 있습니다.

이제 새로운 연구에서는 정신 건강 조언과 관련하여 이러한 시스템이 부족할 수 있다고 경고합니다.

로드아일랜드 주 프로비던스에 위치한 브라운 대학의 한 팀은 AI 시스템이 훈련받은 치료사처럼 행동하도록 지시하더라도 전문적인 윤리 기준을 충족하지 못하는 경우가 많다는 사실을 발견했습니다.

팀은 정신 건강 전문가와 협력하여 이러한 시스템이 상담과 같은 대화에서 어떻게 반응하는지 조사했습니다.

그들의 연구에서는 LLM(대형 언어 모델) 상담사가 어떻게 정신 건강 실무 표준을 위반하는지 보여주기 위해 일련의 윤리적 위험을 조사했습니다.

OpenAI GPT 모델 버전, Anthropic의 Claude와 Meta의 Llama가 테스트되었습니다.

이 연구를 위해 연구자들은 시스템이 인지 행동 치료(CBT) 또는 변증법적 행동 치료(DBT) 상담사처럼 작동하도록 설계된 프롬프트를 사용하여 숙련된 동료 상담사에게 AI와 함께 연습 치료 세션을 열도록 요청했습니다.

그런 다음 자격을 갖춘 심리학자 3명이 AI 반응을 검토했습니다.

연구에서는 5가지 주요 영역으로 분류된 15가지 위험을 식별했습니다.

  • 일반적인 맥락: AI는 개인의 고유한 배경을 종종 무시했습니다.
  • 열악한 협업: 때때로 대화를 너무 강하게 주도하거나 해로운 신념을 강화했습니다.
  • 기만적인 공감: AI가 진정으로 감정을 파악하지 않고 '이해합니다'와 같은 문구를 사용했습니다.
  • 편향: 일부 응답에서는 성별, 종교적 또는 문화적 편견이 나타났습니다.
  • 약한 위기 대응: 어떤 경우에는 챗봇이 자살 충동을 잘못 처리하거나 사용자에게 적절한 도움을 안내하지 못했습니다.
  • "우리는 LLM 상담사를 위한 윤리적, 교육적, 법적 표준, 즉 인간이 촉진하는 심리 치료에 필요한 치료의 질과 엄격함을 반영하는 표준을 만들기 위한 향후 작업을 요청합니다.

    수석 연구원 Zainab Brown 대학의 컴퓨터 과학 박사 과정인 Iftikhar는 프롬프트만으로는 AI 시스템을 치료용으로 안전하게 만드는 데 충분하지 않다고 말했습니다.

    “프롬프트는 모델의 행동을 안내하기 위해 모델에 제공되는 지침입니다.”라고 그녀는 설명했습니다. "기본 모델을 변경하거나 새 데이터를 제공하지는 않지만 프롬프트는 기존 지식과 학습된 패턴을 기반으로 모델의 출력을 안내하는 데 도움이 됩니다.

    많은 사람들이 TikTok, Instagram 및 Reddit에서 치료 스타일 프롬프트를 공유합니다. 일부 소비자 정신 건강 앱도 이러한 프롬프트 기술을 사용하여 AI 채팅 기능을 강화합니다.

    Iftikhar는 인간 치료사도 실수를 할 수 있다고 지적했습니다. 그녀가 말한 차이점은 무엇입니까? 감독.

    "인간 치료사에게는 제공자가 학대와 의료 과실에 대해 전문적으로 책임을 지게 하는 관리 위원회와 메커니즘이 있습니다"라고 Iftikhar는 보도 자료에서 말했습니다. "그러나 LLM 상담사가 이러한 위반을 할 경우 확립된 규제 체계가 없습니다."

    연구원들은 AI 도구가 특히 자격증을 갖춘 전문가를 찾을 여유가 없거나 찾을 수 없는 사람들의 정신 건강 지원에 대한 접근성을 확대하는 데 여전히 도움이 될 수 있다고 말했습니다.

    그러나 그들은 심각한 상황에서 이러한 시스템에 의존하기 전에 더 강력한 보호 장치가 필요하다고 강조했습니다.

    “정신 건강에 관해 챗봇과 대화할 때 사람들이 주의해야 할 사항은 다음과 같습니다.”라고 Iftikhar는 말했습니다.

    이 연구에는 참여하지 않았지만 Brown 대학의 컴퓨터 과학 교수인 Ellie Pavlick은 이사의 필요성에 대해 말했습니다. 일부러.

    "오늘날 AI의 현실은 시스템을 평가하고 이해하는 것보다 시스템을 구축하고 배포하는 것이 훨씬 쉽다는 것입니다."라고 그녀는 말했습니다.

    "우리 사회가 직면한 정신 건강 위기에 대처하는 데 AI가 역할을 할 수 있는 실질적인 기회가 있지만, 우리가 시간을 들여 시스템을 모든 단계에서 실제로 비판하고 평가하여 득보다 해를 끼치지 않도록 하는 것이 가장 중요합니다."라고 Pavlick은 말했습니다. "이 작품은 그것이 어떤 모습일 수 있는지에 대한 좋은 예를 제공합니다."

    조사 결과는 인공 지능 발전 협회 및 컴퓨팅 기계 협회 컨퍼런스에서 발표되었습니다.

    회의에서 발표된 연구는 동료 검토 저널에 게시될 때까지 예비적인 것으로 간주됩니다.

    출처

  • 브라운 대학교, 보도 자료, 2026년 3월 2일
  • 면책조항: 의학 기사의 통계 데이터는 일반적인 추세를 제공하며 개인과 관련이 없습니다. 개별적인 요인은 크게 다를 수 있습니다. 개인의 의료 결정에 대해서는 항상 개인화된 의학적 조언을 구하세요.

    출처: HealthDay

    더 읽어보세요

    면책조항

    Drugslib.com에서 제공하는 정보의 정확성을 보장하기 위해 모든 노력을 기울였습니다. -날짜, 완전하지만 해당 효과에 대한 보장은 없습니다. 여기에 포함된 약물 정보는 시간에 민감할 수 있습니다. Drugslib.com 정보는 미국의 의료 종사자와 소비자가 사용하도록 편집되었으므로 달리 구체적으로 명시하지 않는 한 Drugslib.com은 미국 이외의 지역에서 사용하는 것이 적절하다고 보증하지 않습니다. Drugslib.com의 약물 정보는 약물을 보증하거나 환자를 진단하거나 치료법을 권장하지 않습니다. Drugslib.com의 약물 정보는 면허를 소지한 의료 종사자가 환자를 돌보는 데 도움을 주고/하거나 이 서비스를 건강 관리에 대한 전문 지식, 기술, 지식 및 판단을 대체하는 것이 아니라 보완으로 보는 소비자에게 제공하기 위해 설계된 정보 리소스입니다. 실무자.

    특정 약물 또는 약물 조합에 대한 경고가 없다고 해서 해당 약물 또는 약물 조합이 해당 환자에게 안전하고 효과적이거나 적절하다는 의미로 해석되어서는 안 됩니다. Drugslib.com은 Drugslib.com이 제공하는 정보의 도움으로 관리되는 의료의 모든 측면에 대해 어떠한 책임도 지지 않습니다. 여기에 포함된 정보는 가능한 모든 용도, 지시 사항, 주의 사항, 경고, 약물 상호 작용, 알레르기 반응 또는 부작용을 다루기 위한 것이 아닙니다. 복용 중인 약에 대해 궁금한 점이 있으면 담당 의사, 간호사 또는 약사에게 문의하세요.

    인기있는 키워드