Terapeuta AI? Nowe badanie ostrzega, że ​​to nie wystarczy

Przegląd medyczny przeprowadzony przez Carmen Pope, BPharm. Ostatnia aktualizacja: 3 marca 2026 r.

przez HealthDay

WTOREK, 3 marca 2026 r. — Coraz więcej osób prosi chatboty sztucznej inteligencji (AI) o pomoc w rozwiązywaniu codziennych problemów, od stresu w pracy po zmartwienia w związku i nie tylko.

Nowe badanie ostrzega, że ​​jeśli chodzi o poradnictwo w zakresie zdrowia psychicznego, systemy te mogą zawodzić.

Zespół z Brown University w Providence w stanie Rhode Island odkrył, że nawet jeśli systemom sztucznej inteligencji każe się zachowywać jak wyszkoleni terapeuci, często nie spełniają one standardów etyki zawodowej.

Zespół współpracował z ekspertami w dziedzinie zdrowia psychicznego, aby zbadać, jak te systemy reagują na rozmowy przypominające poradnictwo.

W badaniu zbadano szereg zagrożeń etycznych, aby wykazać, w jaki sposób doradcy korzystający z modelu dużego języka (LLM) naruszają standardy w praktyce zdrowia psychicznego.

Kilka głównych systemów sztucznej inteligencji, w tym wersje modeli GPT OpenAI, Claude i Llama Meta's zostały przetestowane.

Na potrzeby badania badacze poprosili przeszkolonych doradców rówieśniczych o odbycie sesji terapii praktycznej z wykorzystaniem sztucznej inteligencji, wykorzystując podpowiedzi zaprojektowane tak, aby systemy działały jak doradcy w ramach terapii poznawczo-behawioralnej (CBT) lub dialektyczno-behawioralnej (DBT).

Następnie trzech licencjonowanych psychologów sprawdziło odpowiedzi sztucznej inteligencji.

W badaniu zidentyfikowano 15 różnych zagrożeń, pogrupowanych w pięć głównych obszarów:

  • Kontekst ogólny: sztuczna inteligencja często ignorowała wyjątkowe pochodzenie danej osoby.
  • Słaba współpraca: czasami zbyt mocno sterowała rozmową lub wzmacniała szkodliwe przekonania.
  • Zwodnicza empatia: Sztuczna inteligencja używała wyrażeń takich jak „Rozumiem”, nie rozumiejąc w pełni emocji.
  • Uprzedzenie: niektóre odpowiedzi wskazywały na uprzedzenia związane z płcią, religią lub kulturą.
  • Słaba reakcja na kryzys: W niektórych przypadkach chatboty źle radziły sobie z myślami samobójczymi lub nie wskazywały użytkownikom właściwej pomocy.
  • „Wzywamy w przyszłych pracach nad stworzeniem standardów etycznych, edukacyjnych i prawnych dla doradców LLM – standardów odzwierciedlających jakość i rygorystyczność opieki wymaganej w psychoterapii wspomaganej przez człowieka” – napisali badacze.

    Główny badacz Zainab Iftikhar, doktorantka informatyki w Brown, stwierdziła, że same podpowiedzi nie wystarczą, aby systemy sztucznej inteligencji były bezpieczne w terapii.

    „Podpowiedzi to instrukcje wydawane modelowi, aby kierować jego zachowaniem” – wyjaśniła. „Nie zmieniasz modelu bazowego ani nie dostarczasz nowych danych, ale podpowiedzi pomagają pokierować wynikami modelu w oparciu o istniejącą wiedzę i wyuczone wzorce.

    Wiele osób udostępnia podpowiedzi w stylu terapii na TikTok, Instagramie i Reddicie. Niektóre aplikacje do pielęgnacji zdrowia psychicznego konsumentów również wykorzystują te techniki podpowiedzi do obsługi funkcji czatu AI.

    Iftikhar zauważył, że terapeuci również mogą popełniać błędy. Różnica, powiedziała? Nadzór.

    „W przypadku terapeutów ludzkich istnieją rady zarządzające i mechanizmy umożliwiające pociągnięcie świadczeniodawców do odpowiedzialności zawodowej za złe traktowanie i nadużycia w sztuce” – stwierdził Iftikhar w komunikacie prasowym. „Ale kiedy doradcy LLM dopuszczają się takich naruszeń, nie istnieją ustalone ramy regulacyjne.”

    Naukowcy stwierdzili, że narzędzia sztucznej inteligencji mogą w dalszym ciągu pomóc w zwiększeniu dostępu do wsparcia w zakresie zdrowia psychicznego, szczególnie dla osób, których nie stać na licencjonowanego specjalistę lub go nie znaleźć.

    Podkreślili jednak, że zanim w poważnych sytuacjach zacznie się polegać na tych systemach, potrzebne są silniejsze zabezpieczenia.

    „Jeśli rozmawiasz z chatbotem na temat zdrowia psychicznego, ludzie powinni zwrócić uwagę na te kwestie” – powiedział Iftikhar.

    Ellie Pavlick, profesor informatyki w Brown, która nie brała udziału w badaniu, wspomniała o potrzebie przeniesienia się celowo.

    „Rzeczywistość dzisiejszej sztucznej inteligencji jest taka, że ​​znacznie łatwiej jest budować i wdrażać systemy, niż je oceniać i rozumieć” – stwierdziła.

    „Istnieje realna szansa, że ​​sztuczna inteligencja może odegrać rolę w walce z kryzysem zdrowia psychicznego, przed którym stoi nasze społeczeństwo, ale niezwykle ważne jest, abyśmy poświęcili czas na prawdziwą krytykę i ocenę naszych systemów na każdym kroku, aby uniknąć wyrządzenia więcej szkody niż pożytku” – powiedział Pavlick. „Ta praca stanowi dobry przykład tego, jak to może wyglądać.”

    odkrycia zostały zaprezentowane na konferencji Stowarzyszenia na rzecz Rozwoju Sztucznej Inteligencji i Stowarzyszenia na rzecz Maszyn Obliczeniowych.

    Badania prezentowane na spotkaniach uważa się za wstępne do czasu ich publikacji w recenzowanym czasopiśmie.

    Źródła

  • Brown University, komunikat prasowy z 2 marca 2026 r.
  • Zastrzeżenie: Dane statystyczne zawarte w artykułach medycznych przedstawiają ogólne trendy i nie dotyczą poszczególnych osób. Indywidualne czynniki mogą się znacznie różnić. Zawsze zasięgaj spersonalizowanej porady lekarskiej w przypadku podejmowania indywidualnych decyzji dotyczących opieki zdrowotnej.

    Źródło: HealthDay

    Czytaj więcej

    Zastrzeżenie

    Dołożono wszelkich starań, aby informacje dostarczane przez Drugslib.com były dokładne i aktualne -data i kompletność, ale nie udziela się na to żadnej gwarancji. Informacje o lekach zawarte w niniejszym dokumencie mogą mieć charakter wrażliwy na czas. Informacje na stronie Drugslib.com zostały zebrane do użytku przez pracowników służby zdrowia i konsumentów w Stanach Zjednoczonych, dlatego też Drugslib.com nie gwarantuje, że użycie poza Stanami Zjednoczonymi jest właściwe, chyba że wyraźnie wskazano inaczej. Informacje o lekach na Drugslib.com nie promują leków, nie diagnozują pacjentów ani nie zalecają terapii. Informacje o lekach na Drugslib.com to źródło informacji zaprojektowane, aby pomóc licencjonowanym pracownikom służby zdrowia w opiece nad pacjentami i/lub służyć konsumentom traktującym tę usługę jako uzupełnienie, a nie substytut wiedzy specjalistycznej, umiejętności, wiedzy i oceny personelu medycznego praktycy.

    Brak ostrzeżenia dotyczącego danego leku lub kombinacji leków w żadnym wypadku nie powinien być interpretowany jako wskazanie, że lek lub kombinacja leków jest bezpieczna, skuteczna lub odpowiednia dla danego pacjenta. Drugslib.com nie ponosi żadnej odpowiedzialności za jakikolwiek aspekt opieki zdrowotnej zarządzanej przy pomocy informacji udostępnianych przez Drugslib.com. Informacje zawarte w niniejszym dokumencie nie obejmują wszystkich możliwych zastosowań, wskazówek, środków ostrożności, ostrzeżeń, interakcji leków, reakcji alergicznych lub skutków ubocznych. Jeśli masz pytania dotyczące przyjmowanych leków, skontaktuj się ze swoim lekarzem, pielęgniarką lub farmaceutą.

    Popularne słowa kluczowe