AIセラピスト?それは不十分だと新しい研究が警告

BPharm の Carmen Pope によって医学的にレビューされました。最終更新日は 2026 年 3 月 3 日です。

HealthDay 経由

2026 年 3 月 3 日、火曜日 — 仕事のストレスから人間関係の悩みなど、日常の問題について人工知能 (AI) チャットボットに助けを求める人が増えています。

新しい研究は、メンタルヘルスに関するアドバイスに関しては、これらのシステムでは不十分である可能性があると警告しています。

ロードアイランド州プロビデンスにあるブラウン大学のチームは、AI システムが訓練を受けたセラピストのように機能するように言われても、職業倫理基準を満たしていないことが多いことを発見しました。

チームはメンタルヘルスの専門家と協力して、カウンセリングのような会話でこれらのシステムがどのように反応するかを調査しました。

彼らの研究では、大規模言語モデル (LLM) カウンセラーがメンタルヘルス実践の基準にどのように違反しているかを示すために、一連の倫理リスクを調査しました。

OpenAI の GPT モデル、Anthropic の クロードとメタのラマがテストされました。

この研究では、研究者らは訓練を受けたピア カウンセラーに、システムが認知行動療法 (CBT) または弁証法的行動療法 (DBT) カウンセラーのように機能するように設計されたプロンプトを使用して、AI との実践療法セッションを開催するよう依頼しました。

その後、3 人の公認心理師が AI の応答をレビューしました。

研究では 15 の異なるリスクが特定され、次の 5 つの主要領域にグループ化されました。

  • 一般的な背景: AI は、その人の固有の背景を無視することがよくありました。
  • 連携が不十分: 会話の方向性が強すぎたり、有害な信念が強化される場合がありました。
  • 欺瞞的な共感: AI は感情を真に把握せずに「理解しました」などのフレーズを使用しました。
  • 偏見: 一部の回答には、性別、宗教、文化的な偏見が見られました。
  • 危機対応が弱い: 場合によっては、チャットボットが自殺願望を誤って処理したり、ユーザーを適切な助けに誘導できなかったりしました。
  • 「私たちは、LLM カウンセラーの倫理的、教育的、法的基準、つまり人間による心理療法に必要なケアの質と厳しさを反映する基準を作成する将来の取り組みを求めます」と研究者らは書いています。

    主任研究者 Zainabブラウン大学のコンピュータ サイエンスの博士課程候補者、イフティハール氏は、プロンプトだけでは AI システムを治療に安全なものにするのに十分ではないと述べました。

    「プロンプトは、モデルの動作をガイドするためにモデルに与えられる指示です」と彼女は説明しました。 「基礎となるモデルを変更したり、新しいデータを提供したりすることはありませんが、プロンプトは、既存の知識と学習したパターンに基づいてモデルの出力をガイドするのに役立ちます。

    多くの人が、TikTok、Instagram、Reddit でセラピー スタイルのプロンプトを共有しています。一部の消費者向けメンタルヘルス アプリでは、AI チャット機能を強化するためにこれらのプロンプト技術も使用しています。

    イフティカール氏は、人間のセラピストも間違いを犯す可能性があると指摘しました。違いは?と彼女は言いました。

    「人間のセラピストには、虐待や医療過誤に対する専門的な責任を医療提供者が負うための管理委員会とメカニズムがある」とイフティカール氏はニュースリリースで述べた。 「しかし、LLM カウンセラーがこうした違反を行った場合、確立された規制の枠組みは存在しません。」

    研究者らは、AI ツールは、特に経済的余裕がない、または資格のある専門家を見つけることができない人々にとって、メンタルヘルス サポートへのアクセスを拡大するのに依然として役立つ可能性があると述べています。

    しかし、彼らは、深刻な状況でこれらのシステムに依存する前に、より強力な保護措置が必要であると強調しました。

    「メンタルヘルスについてチャットボットと話している場合、人々が注意すべき点がいくつかあります」とイフティカール氏は語った。

    ブラウン大学のコンピューターサイエンス教授で、この研究には関与していないエリー・パブリック氏は、引っ越しの必要性について語った。

    「今日の AI の現実は、システムを評価して理解するよりも、システムを構築して導入する方がはるかに簡単です」と彼女は言いました。

    「私たちの社会が直面しているメンタルヘルスの危機と戦う上で、AI が役割を果たす本当の機会があります。しかし、善よりも害を及ぼすことを避けるために、時間をかけてシステムをあらゆる段階で実際に批判し、評価することが最も重要です」とパブリック氏は述べました。 「この作品は、それがどのようなものかを示す良い例を提供します。」

    調査結果は、Association for the Advancement of Artificial Intelligence および Association for Computing Machinery の会議で発表されました。

    会議で発表された研究は、査読付き雑誌に掲載されるまでは予備的とみなされます。

    出典

  • ブラウン大学、ニュースリリース、2026 年 3 月 2 日
  • 免責事項: 医学論文の統計データは一般的な傾向を提供するものであり、個人に関係するものではありません。個々の要因は大きく異なる可能性があります。個々の医療上の決定については、常に個別の医学的アドバイスを求めてください。

    出典: HealthDay

    続きを読む

    免責事項

    Drugslib.com によって提供される情報が正確であることを保証するためにあらゆる努力が払われています。 -日付、および完全ですが、その旨については保証されません。ここに含まれる医薬品情報は時間に敏感な場合があります。 Drugslib.com の情報は、米国の医療従事者および消費者による使用を目的として編集されているため、特に明記されていない限り、Drugslib.com は米国外での使用が適切であることを保証しません。 Drugslib.com の医薬品情報は、医薬品を推奨したり、患者を診断したり、治療法を推奨したりするものではありません。 Drugslib.com の医薬品情報は、認可を受けた医療従事者による患者のケアを支援すること、および/または医療の専門知識、スキル、知識、判断の代替ではなく補足としてこのサービスを閲覧している消費者にサービスを提供することを目的とした情報リソースです。

    特定の薬物または薬物の組み合わせに対する警告がないことは、その薬物または薬物の組み合わせが特定の患者にとって安全、有効、または適切であることを示すものと決して解釈されるべきではありません。 Drugslib.com は、Drugslib.com が提供する情報を利用して管理される医療のいかなる側面についても責任を負いません。ここに含まれる情報は、考えられるすべての使用法、使用法、注意事項、警告、薬物相互作用、アレルギー反応、または副作用を網羅することを意図したものではありません。服用している薬について質問がある場合は、医師、看護師、または薬剤師に問い合わせてください。

    人気のあるキーワード