ШІ-терапевт? Нове дослідження попереджає, що цього не вистачає

Медичний огляд Кармен Поуп, BPharm. Востаннє оновлено 3 березня 2026 р.

через HealthDay

ВІВТОРОК, 3 березня 2026 р. — Все більше людей звертаються до чат-ботів зі штучним інтелектом (ШІ) за допомогою у вирішенні повсякденних проблем, від стресу на роботі до турбот про стосунки тощо.

Тепер нове дослідження попереджає, що коли мова заходить про консультації щодо психічного здоров’я, ці системи можуть не працювати.

Команда з Університету Брауна в Провіденсі, штат Род-Айленд, виявила, що навіть коли системам ШІ кажуть діяти як навчені терапевти, вони часто не відповідають стандартам професійної етики.

Команда працювала з експертами з психічного здоров’я, щоб дослідити, як ці системи реагують на розмови, схожі на консультування.

Їхнє дослідження вивчило низку етичних ризиків, щоб показати, як консультанти з великої мовної моделі (LLM) порушують стандарти практики психічного здоров’я.

Кілька основних систем штучного інтелекту, включаючи версії моделей GPT OpenAI, Anthropic Клод і Llama, були перевірені.

Для дослідження дослідники попросили навчених консультантів провести практичні терапевтичні сеанси з ШІ, використовуючи підказки, розроблені для того, щоб змусити системи діяти як консультанти з когнітивно-поведінкової терапії (КПТ) або діалектичної поведінкової терапії (ДБТ).

Потім троє ліцензованих психологів переглянули відповіді ШІ.

Дослідження виявило 15 різних ризиків, згрупованих у п’ять основних областей:

  • Загальний контекст: штучний інтелект часто ігнорував унікальне минуле людини.
  • Погана співпраця: інколи надто сильно скеровувала розмови або зміцнювала шкідливі переконання.
  • Оманлива емпатія: штучний інтелект використовував такі фрази, як «Я розумію», без справжнього вловлювання емоцій.
  • Упередженість: у деяких відповідях виявлялися гендерні, релігійні чи культурні упередження.
  • Слабка реакція на кризу: у деяких випадках чат-боти неправильно реагували на суїцидальні думки або не скеровували користувачів до належної допомоги.
  • «Ми закликаємо до майбутньої роботи над створенням етичних, освітніх і правових стандартів для консультантів LLM — стандартів, які відображають якість і ретельність догляду, необхідних для психотерапії за допомогою людини», — написали дослідники.

    Провідний дослідник Зайнаб Іфтіхар, докторант з інформатики в Брауні, сказала, що одних лише підказок недостатньо, щоб зробити системи ШІ безпечними для терапії.

    «Підказки — це вказівки, які надаються моделі, щоб керувати її поведінкою», — пояснила вона. «Ви не змінюєте основну модель і не надаєте нові дані, але підказка допомагає керувати виходом моделі на основі її попередніх знань і вивчених шаблонів.

    Багато людей діляться підказками в стилі терапії в TikTok, Instagram і Reddit. Деякі споживчі програми для психічного здоров’я також використовують ці методи підказок для роботи функцій чату AI.

    Іфтіхар зазначив, що люди-терапевти також можуть помилятися. Різниця, сказала вона? Нагляд.

    «Для терапевтів існують керівні ради та механізми, за допомогою яких постачальники послуг несуть професійну відповідальність за погане поводження та зловживання», — сказав Іфтіхар у прес-релізі. «Але коли консультанти LLM допускають ці порушення, немає встановленої нормативної бази».

    Дослідники стверджують, що інструменти штучного інтелекту все ще можуть допомогти розширити доступ до підтримки психічного здоров’я, особливо для людей, які не можуть дозволити собі або знайти ліцензованого спеціаліста.

    Але вони підкреслили, що перш ніж покладатися на ці системи в серйозних ситуаціях, потрібні сильніші заходи безпеки.

    «Якщо ви розмовляєте з чат-ботом про психічне здоров’я, це деякі речі, на які люди повинні звернути увагу», — сказав Іфтіхар.

    Еллі Павлік, професор інформатики в Брауні, яка не брала участі в дослідженні, сказала до необхідності свідомого руху.

    «Сьогодні реальність штучного інтелекту полягає в тому, що набагато легше створювати та розгортати системи, ніж оцінювати та розуміти їх», — сказала вона.

    «Існує реальна можливість для штучного інтелекту відіграти роль у боротьбі з кризою психічного здоров’я, з якою стикається наше суспільство, але надзвичайно важливо, щоб ми знайшли час, щоб справді критикувати та оцінювати наші системи на кожному кроці, щоб уникнути заподіяння більшої шкоди, ніж добре, - сказав Павлік. «Ця робота є хорошим прикладом того, як це може виглядати».

    Висновки були представлені на конференції Асоціації сприяння розвитку штучного інтелекту та Асоціації обчислювальної техніки.

    Дослідження, представлені на зустрічах, вважаються попередніми, поки не будуть опубліковані в рецензованому журналі.

    Джерела

  • Університет Брауна, прес-реліз, 2 березня 2026 р.
  • Відмова від відповідальності: статистичні дані в медичних статтях містять загальні тенденції та не стосуються окремих осіб. Індивідуальні фактори можуть сильно відрізнятися. Завжди звертайтеся за індивідуальною медичною порадою для прийняття індивідуальних рішень щодо охорони здоров’я.

    Джерело: HealthDay

    Читати далі

    Відмова від відповідальності

    Було докладено всіх зусиль, щоб інформація, надана Drugslib.com, була точною, до -дата та повна, але жодних гарантій щодо цього не надається. Інформація про ліки, що міститься тут, може бути чутливою до часу. Інформація Drugslib.com була зібрана для використання медичними працівниками та споживачами в Сполучених Штатах, тому Drugslib.com не гарантує, що використання за межами Сполучених Штатів є доцільним, якщо спеціально не вказано інше. Інформація про ліки Drugslib.com не схвалює ліки, не ставить діагноз пацієнтів і не рекомендує терапію. Інформація про ліки на Drugslib.com – це інформаційний ресурс, призначений для допомоги ліцензованим медичним працівникам у догляді за їхніми пацієнтами та/або для обслуговування споживачів, які розглядають цю послугу як доповнення, а не заміну досвіду, навичок, знань і суджень у сфері охорони здоров’я. практиків.

    Відсутність попередження щодо певного препарату чи комбінації ліків у жодному разі не слід тлумачити як вказівку на те, що препарат чи комбінація препаратів є безпечними, ефективними чи прийнятними для будь-якого конкретного пацієнта. Drugslib.com не несе жодної відповідальності за будь-які аспекти медичної допомоги, що надається за допомогою інформації, яку надає Drugslib.com. Інформація, що міститься в цьому документі, не має на меті охопити всі можливі способи використання, інструкції, запобіжні заходи, попередження, лікарські взаємодії, алергічні реакції чи побічні ефекти. Якщо у вас є запитання щодо препаратів, які ви приймаєте, зверніться до свого лікаря, медсестри або фармацевта.

    Популярні ключові слова