KI-Therapeut? Es greift zu kurz, warnt eine neue Studie

Medizinisch überprüft von Carmen Pope, BPharm. Zuletzt aktualisiert am 3. März 2026.

über HealthDay

DIENSTAG, 3. März 2026 – Immer mehr Menschen bitten Chatbots mit künstlicher Intelligenz (KI) um Hilfe bei alltäglichen Problemen, von Arbeitsstress bis hin zu Beziehungssorgen und mehr.

Jetzt warnt eine neue Studie, dass diese Systeme bei der Beratung zur psychischen Gesundheit möglicherweise nicht ausreichen.

Ein Team der Brown University in Providence, Rhode Island, hat herausgefunden, dass KI-Systeme, selbst wenn sie angewiesen werden, sich wie ausgebildete Therapeuten zu verhalten, oft nicht den Standards der Berufsethik genügen.

Das Team arbeitete mit Experten für psychische Gesundheit zusammen, um zu untersuchen, wie diese Systeme in beratungsähnlichen Gesprächen reagieren.

Ihre Studie untersuchte eine Reihe ethischer Risiken, um zu zeigen, wie LLM-Berater (Large Language Model) gegen Standards in der Praxis der psychischen Gesundheit verstoßen.

Mehrere große KI-Systeme, darunter Versionen von OpenAIs GPT-Modellen, Anthropics Claude und Metas Lama wurden getestet.

Für die Studie baten die Forscher ausgebildete Peer-Berater, Übungstherapiesitzungen mit der KI abzuhalten, wobei sie Aufforderungen verwendeten, die die Systeme wie Berater für kognitive Verhaltenstherapie (CBT) oder dialektische Verhaltenstherapie (DBT) verhalten sollten.

Drei zugelassene Psychologen überprüften dann die Antworten der KI.

Die Studie identifizierte 15 verschiedene Risiken, gruppiert in fünf Hauptbereiche:

  • Allgemeiner Kontext: Die KI ignorierte oft den einzigartigen Hintergrund einer Person.
  • Schlechte Zusammenarbeit: Manchmal wurden Gespräche zu stark gelenkt oder schädliche Überzeugungen verstärkt.
  • Trügerische Empathie: Die KI verwendete Sätze wie „Ich verstehe“, ohne Emotionen wirklich zu erfassen.
  • Voreingenommenheit: Einige Antworten zeigten geschlechtsspezifische, religiöse oder kulturelle Vorurteile.
  • Schwache Krisenreaktion: In einigen Fällen gingen Chatbots falsch mit Selbstmordgedanken um oder versäumten es, Benutzer an die richtige Hilfe weiterzuleiten.
  • „Wir fordern die zukünftige Arbeit auf, ethische, pädagogische und rechtliche Standards für LLM-Berater zu schaffen – Standards, die die Qualität und Sorgfalt der für menschengestützte Psychotherapie erforderlichen Pflege widerspiegeln“, schrieben die Forscher.

    Leitender Forscher Zainab Iftikhar, ein Doktorand der Informatik an der Brown University, sagte, dass Eingabeaufforderungen allein nicht ausreichen, um KI-Systeme für die Therapie sicher zu machen.

    „Eingabeaufforderungen sind Anweisungen, die dem Modell gegeben werden, um sein Verhalten zu steuern“, erklärte sie. „Sie ändern nicht das zugrunde liegende Modell und stellen keine neuen Daten bereit, aber die Eingabeaufforderung hilft dabei, die Ausgabe des Modells basierend auf seinem bereits vorhandenen Wissen und den erlernten Mustern zu leiten.

    Viele Menschen teilen Eingabeaufforderungen im Therapiestil auf TikTok, Instagram und Reddit. Einige Verbraucher-Apps für psychische Gesundheit verwenden diese Eingabeaufforderungstechniken auch, um KI-Chatfunktionen zu ermöglichen.

    Iftikhar stellte fest, dass auch menschliche Therapeuten Fehler machen können. Der Unterschied, sagte sie? Aufsicht.

    „Für menschliche Therapeuten gibt es Aufsichtsgremien und Mechanismen, mit denen Anbieter beruflich für Misshandlung und Fehlverhalten haftbar gemacht werden können“, sagte Iftikhar in einer Pressemitteilung. „Aber wenn LLM-Berater diese Verstöße begehen, gibt es keine etablierten Regulierungsrahmen.“

    Forscher sagten, KI-Tools könnten immer noch dazu beitragen, den Zugang zu psychischer Unterstützung zu erweitern, insbesondere für Menschen, die sich keinen lizenzierten Fachmann leisten oder keinen finden können.

    Aber sie betonten, dass stärkere Schutzmaßnahmen erforderlich seien, bevor man sich in ernsten Situationen auf diese Systeme verlassen könne.

    „Wenn Sie mit einem Chatbot über psychische Gesundheit sprechen, sollten die Leute auf diese Dinge achten“, sagte Iftikhar.

    Ellie Pavlick, eine Informatikprofessorin an der Brown University, die nicht an der Studie beteiligt war, sprach von der Notwendigkeit eines Umzugs absichtlich.

    „Die Realität der heutigen KI ist, dass es weitaus einfacher ist, Systeme aufzubauen und einzusetzen, als sie zu bewerten und zu verstehen“, sagte sie.

    „Es besteht eine echte Chance für KI, eine Rolle bei der Bekämpfung der psychischen Gesundheitskrise zu spielen, mit der unsere Gesellschaft konfrontiert ist, aber es ist von größter Bedeutung, dass wir uns die Zeit nehmen, unsere Systeme bei jedem Schritt wirklich zu kritisieren und zu bewerten, um zu vermeiden, dass mehr Schaden als Nutzen entsteht“, sagte Pavlick. „Diese Arbeit ist ein gutes Beispiel dafür, wie das aussehen kann.“

    Die Ergebnisse wurden auf einer Konferenz der Association for the Advancement of Artificial Intelligence und der Association for Computing Machinery vorgestellt.

    Bei Treffen vorgestellte Forschungsergebnisse gelten als vorläufig, bis sie in einer von Experten begutachteten Zeitschrift veröffentlicht werden.

    Quellen

  • Brown University, Pressemitteilung, 2. März 2026
  • Haftungsausschluss: Statistische Daten in medizinischen Artikeln stellen allgemeine Trends dar und beziehen sich nicht auf Einzelpersonen. Einzelne Faktoren können stark variieren. Lassen Sie sich bei individuellen Gesundheitsentscheidungen immer individuell medizinisch beraten.

    Quelle: HealthDay

    Mehr lesen

    Haftungsausschluss

    Es wurden alle Anstrengungen unternommen, um sicherzustellen, dass die von Drugslib.com bereitgestellten Informationen korrekt und aktuell sind aktuell und vollständig, eine Garantie hierfür kann jedoch nicht übernommen werden. Die hierin enthaltenen Arzneimittelinformationen können zeitkritisch sein. Die Informationen von Drugslib.com wurden für die Verwendung durch medizinisches Fachpersonal und Verbraucher in den Vereinigten Staaten zusammengestellt. Daher übernimmt Drugslib.com keine Gewähr dafür, dass eine Verwendung außerhalb der Vereinigten Staaten angemessen ist, sofern nicht ausdrücklich anders angegeben. Die Arzneimittelinformationen von Drugslib.com befürworten keine Arzneimittel, diagnostizieren keine Patienten und empfehlen keine Therapie. Die Arzneimittelinformationen von Drugslib.com sind eine Informationsquelle, die zugelassenen Ärzten bei der Betreuung ihrer Patienten helfen soll und/oder Verbrauchern dienen soll, die diesen Service als Ergänzung und nicht als Ersatz für die Fachkenntnisse, Fähigkeiten, Kenntnisse und Urteilsvermögen im Gesundheitswesen betrachten Praktiker.

    Das Fehlen einer Warnung für ein bestimmtes Medikament oder eine bestimmte Medikamentenkombination sollte keinesfalls als Hinweis darauf ausgelegt werden, dass das Medikament oder die Medikamentenkombination für einen bestimmten Patienten sicher, wirksam oder geeignet ist. Drugslib.com übernimmt keinerlei Verantwortung für irgendeinen Aspekt der Gesundheitsversorgung, die mithilfe der von Drugslib.com bereitgestellten Informationen durchgeführt wird. Die hierin enthaltenen Informationen sollen nicht alle möglichen Verwendungen, Anweisungen, Vorsichtsmaßnahmen, Warnungen, Arzneimittelwechselwirkungen, allergischen Reaktionen oder Nebenwirkungen abdecken. Wenn Sie Fragen zu den Medikamenten haben, die Sie einnehmen, wenden Sie sich an Ihren Arzt, das medizinische Fachpersonal oder Ihren Apotheker.

    Beliebte Schlüsselwörter