ИИ-терапевт? Этого не хватает, предупреждает новое исследование

Медицинская проверка Кармен Поуп, BPharm. Последнее обновление: 3 марта 2026 г.

через HealthDay

ВТОРНИК, 3 марта 2026 г. — Все больше людей обращаются к чат-ботам с искусственным интеллектом (ИИ) за помощью в решении повседневных проблем, от стресса на работе до проблем в отношениях и многого другого.

Новое исследование предупреждает, что когда дело доходит до рекомендаций по психическому здоровью, эти системы могут оказаться неэффективными.

Команда из Университета Брауна в Провиденсе, штат Род-Айленд, обнаружила, что даже когда системам искусственного интеллекта приказывают действовать как обученные терапевты, они часто не соответствуют стандартам профессиональной этики.

Команда работала с экспертами в области психического здоровья, чтобы изучить, как эти системы реагируют на беседы, подобные консультированию.

В их исследовании был изучен ряд этических рисков, чтобы показать, как консультанты по большой языковой модели (LLM) нарушают стандарты в практике психического здоровья.

Несколько основных систем искусственного интеллекта, включая версии OpenAI моделей GPT, Claude и Llama от Meta были протестированы.

Для исследования исследователи попросили обученных равных консультантов провести практические сеансы терапии с ИИ, используя подсказки, предназначенные для того, чтобы заставить системы действовать как консультанты по когнитивно-поведенческой терапии (КПТ) или диалектической поведенческой терапии (ДПТ).

Затем три лицензированных психолога проанализировали ответы ИИ.

Исследование выявило 15 различных рисков, сгруппированных в пять основных областей:

  • Общий контекст: ИИ часто игнорировал уникальный опыт человека.
  • Плохое сотрудничество: иногда оно слишком сильно направляло разговор или укрепляло вредные убеждения.
  • Обманчивая эмпатия: ИИ использовал фразы типа «Я понимаю», не по-настоящему улавливая эмоции.
  • Предвзятость: В некоторых ответах отражаются гендерные, религиозные или культурные предрассудки.
  • Слабая реакция на кризис: В некоторых случаях чат-боты неправильно справлялись с суицидальными мыслями или не могли направить пользователей к надлежащей помощи.
  • "Мы призываем к дальнейшей работе над созданием этических, образовательных и правовых стандартов для консультантов LLM — стандартов, которые отражают качество и строгость ухода, необходимые для психотерапии с участием человека", — пишут исследователи.

    Ведущий исследователь Зайнаб Ифтихар, докторант компьютерных наук в Брауновском университете, считает, что одних подсказок недостаточно, чтобы сделать системы искусственного интеллекта безопасными для терапии.

    «Подсказки — это инструкции, которые даются модели для управления ее поведением», — объяснила она. «Вы не меняете базовую модель и не предоставляете новые данные, но подсказка помогает направлять результаты модели на основе уже существующих знаний и изученных моделей.

    Многие люди делятся подсказками в стиле терапии в TikTok, Instagram и Reddit. Некоторые потребительские приложения для психического здоровья также используют эти методы подсказок для поддержки функций чата с искусственным интеллектом.

    Ифтихар отметил, что терапевты-люди тоже могут совершать ошибки. Разница, сказала она? Надзор.

    «Для терапевтов-людей существуют руководящие советы и механизмы, позволяющие поставщикам услуг нести профессиональную ответственность за плохое обращение и злоупотребления служебным положением», — заявил Ифтихар в пресс-релизе. «Но когда консультанты LLM допускают подобные нарушения, установленной нормативной базы не существует».

    Исследователи утверждают, что инструменты искусственного интеллекта по-прежнему могут помочь расширить доступ к поддержке психического здоровья, особенно для людей, которые не могут позволить себе или найти лицензированного специалиста.

    Однако они подчеркнули, что необходимы более строгие меры безопасности, прежде чем полагаться на эти системы в серьезных ситуациях.

    "Если вы разговариваете с чат-ботом о психическом здоровье, людям следует обратить внимание на следующие вещи", – сказал Ифтихар.

    Элли Павлик, профессор информатики в Университете Брауна, не участвовавшая в исследовании, рассказала о необходимости переезда намеренно.

    «Сегодняшняя реальность ИИ такова, что гораздо легче создавать и развертывать системы, чем оценивать и понимать их», — сказала она.

    «У ИИ есть реальная возможность сыграть роль в борьбе с кризисом психического здоровья, с которым сталкивается наше общество, но крайне важно, чтобы мы нашли время по-настоящему критиковать и оценивать наши системы на каждом этапе пути, чтобы не приносить больше вреда, чем пользы», — сказал Павлик. «Эта работа представляет собой хороший пример того, как это может выглядеть».

    результаты были представлены на конференции Ассоциации по развитию искусственного интеллекта и Ассоциации вычислительной техники.

    Исследование, представленное на собраниях, считается предварительным до тех пор, пока оно не будет опубликовано в рецензируемом журнале.

    Источники

  • Университет Брауна, пресс-релиз, 2 марта 2026 г.
  • Отказ от ответственности: Статистические данные в медицинских статьях отражают общие тенденции и не касаются отдельных лиц. Индивидуальные факторы могут сильно различаться. Всегда обращайтесь за индивидуальной медицинской консультацией для принятия индивидуальных медицинских решений.

    Источник: HealthDay

    Читать далее

    Отказ от ответственности

    Мы приложили все усилия, чтобы гарантировать, что информация, предоставляемая Drugslib.com, является точной и соответствует -дата и полная информация, но никаких гарантий на этот счет не предоставляется. Содержащаяся здесь информация о препарате может меняться с течением времени. Информация Drugslib.com была собрана для использования медицинскими работниками и потребителями в Соединенных Штатах, и поэтому Drugslib.com не гарантирует, что использование за пределами Соединенных Штатов является целесообразным, если специально не указано иное. Информация о лекарствах на сайте Drugslib.com не рекламирует лекарства, не диагностирует пациентов и не рекомендует терапию. Информация о лекарствах на сайте Drugslib.com — это информационный ресурс, предназначенный для помощи лицензированным практикующим врачам в уходе за своими пациентами и/или для обслуживания потребителей, рассматривающих эту услугу как дополнение, а не замену опыта, навыков, знаний и суждений в области здравоохранения. практики.

    Отсутствие предупреждения для данного препарата или комбинации препаратов никоим образом не должно быть истолковано как указание на то, что препарат или комбинация препаратов безопасны, эффективны или подходят для конкретного пациента. Drugslib.com не несет никакой ответственности за какой-либо аспект здравоохранения, администрируемый с помощью информации, предоставляемой Drugslib.com. Информация, содержащаяся в настоящем документе, не предназначена для охвата всех возможных вариантов использования, направлений, мер предосторожности, предупреждений, взаимодействия лекарств, аллергических реакций или побочных эффектов. Если у вас есть вопросы о лекарствах, которые вы принимаете, проконсультируйтесь со своим врачом, медсестрой или фармацевтом.

    Популярные ключевые слова