KI-Therapeut? Es greift zu kurz, warnt eine neue Studie
über HealthDayDIENSTAG, 3. März 2026 – Immer mehr Menschen bitten Chatbots mit künstlicher Intelligenz (KI) um Hilfe bei alltäglichen Problemen, von Arbeitsstress bis hin zu Beziehungssorgen und mehr.
Jetzt warnt eine neue Studie, dass diese Systeme bei der Beratung zur psychischen Gesundheit möglicherweise nicht ausreichen.
Ein Team der Brown University in Providence, Rhode Island, hat herausgefunden, dass KI-Systeme, selbst wenn sie angewiesen werden, sich wie ausgebildete Therapeuten zu verhalten, oft nicht den Standards der Berufsethik genügen.
Das Team arbeitete mit Experten für psychische Gesundheit zusammen, um zu untersuchen, wie diese Systeme in beratungsähnlichen Gesprächen reagieren.
Ihre Studie untersuchte eine Reihe ethischer Risiken, um zu zeigen, wie LLM-Berater (Large Language Model) gegen Standards in der Praxis der psychischen Gesundheit verstoßen.
Mehrere große KI-Systeme, darunter Versionen von OpenAIs GPT-Modellen, Anthropics Claude und Metas Lama wurden getestet.
Für die Studie baten die Forscher ausgebildete Peer-Berater, Übungstherapiesitzungen mit der KI abzuhalten, wobei sie Aufforderungen verwendeten, die die Systeme wie Berater für kognitive Verhaltenstherapie (CBT) oder dialektische Verhaltenstherapie (DBT) verhalten sollten.
Drei zugelassene Psychologen überprüften dann die Antworten der KI.
Die Studie identifizierte 15 verschiedene Risiken, gruppiert in fünf Hauptbereiche:
„Wir fordern die zukünftige Arbeit auf, ethische, pädagogische und rechtliche Standards für LLM-Berater zu schaffen – Standards, die die Qualität und Sorgfalt der für menschengestützte Psychotherapie erforderlichen Pflege widerspiegeln“, schrieben die Forscher.
Leitender Forscher Zainab Iftikhar, ein Doktorand der Informatik an der Brown University, sagte, dass Eingabeaufforderungen allein nicht ausreichen, um KI-Systeme für die Therapie sicher zu machen.
„Eingabeaufforderungen sind Anweisungen, die dem Modell gegeben werden, um sein Verhalten zu steuern“, erklärte sie. „Sie ändern nicht das zugrunde liegende Modell und stellen keine neuen Daten bereit, aber die Eingabeaufforderung hilft dabei, die Ausgabe des Modells basierend auf seinem bereits vorhandenen Wissen und den erlernten Mustern zu leiten.
Viele Menschen teilen Eingabeaufforderungen im Therapiestil auf TikTok, Instagram und Reddit. Einige Verbraucher-Apps für psychische Gesundheit verwenden diese Eingabeaufforderungstechniken auch, um KI-Chatfunktionen zu ermöglichen.
Iftikhar stellte fest, dass auch menschliche Therapeuten Fehler machen können. Der Unterschied, sagte sie? Aufsicht.
„Für menschliche Therapeuten gibt es Aufsichtsgremien und Mechanismen, mit denen Anbieter beruflich für Misshandlung und Fehlverhalten haftbar gemacht werden können“, sagte Iftikhar in einer Pressemitteilung. „Aber wenn LLM-Berater diese Verstöße begehen, gibt es keine etablierten Regulierungsrahmen.“
Forscher sagten, KI-Tools könnten immer noch dazu beitragen, den Zugang zu psychischer Unterstützung zu erweitern, insbesondere für Menschen, die sich keinen lizenzierten Fachmann leisten oder keinen finden können.
Aber sie betonten, dass stärkere Schutzmaßnahmen erforderlich seien, bevor man sich in ernsten Situationen auf diese Systeme verlassen könne.
„Wenn Sie mit einem Chatbot über psychische Gesundheit sprechen, sollten die Leute auf diese Dinge achten“, sagte Iftikhar.
Ellie Pavlick, eine Informatikprofessorin an der Brown University, die nicht an der Studie beteiligt war, sprach von der Notwendigkeit eines Umzugs absichtlich.
„Die Realität der heutigen KI ist, dass es weitaus einfacher ist, Systeme aufzubauen und einzusetzen, als sie zu bewerten und zu verstehen“, sagte sie.
„Es besteht eine echte Chance für KI, eine Rolle bei der Bekämpfung der psychischen Gesundheitskrise zu spielen, mit der unsere Gesellschaft konfrontiert ist, aber es ist von größter Bedeutung, dass wir uns die Zeit nehmen, unsere Systeme bei jedem Schritt wirklich zu kritisieren und zu bewerten, um zu vermeiden, dass mehr Schaden als Nutzen entsteht“, sagte Pavlick. „Diese Arbeit ist ein gutes Beispiel dafür, wie das aussehen kann.“
Die Ergebnisse wurden auf einer Konferenz der Association for the Advancement of Artificial Intelligence und der Association for Computing Machinery vorgestellt.
Bei Treffen vorgestellte Forschungsergebnisse gelten als vorläufig, bis sie in einer von Experten begutachteten Zeitschrift veröffentlicht werden.
Quellen
Haftungsausschluss: Statistische Daten in medizinischen Artikeln stellen allgemeine Trends dar und beziehen sich nicht auf Einzelpersonen. Einzelne Faktoren können stark variieren. Lassen Sie sich bei individuellen Gesundheitsentscheidungen immer individuell medizinisch beraten.
Quelle: HealthDay
Gesendet : 2026-03-04 01:42
Mehr lesen
- Novo Nordisk senkt ab Januar 2027 die Preise für Ozempic und Wegovy
- Tötungsdelikte, Selbstmorde und Überdosierungen sind die häufigsten Todesursachen bei Müttern
- Entzündung im Zusammenhang mit Hirnschäden und Gedächtnisproblemen bei Fußballspielern
- Merck gibt auf der CROI 2026 aktuelle Daten aus drei Phase-3-Studien zur Evaluierung von Doravirin/Islatravir (DOR/ISL) bekannt, einem einmal täglich einzunehmenden Prüfschema mit zwei Medikamenten zur Behandlung von Erwachsenen mit HIV-1
- SystImmune und Bristol Myers Squibb heben positive vorläufige Topline-Ergebnisse der Phase III für Izalontamab Brengitecan (Iza-bren) bei vorbehandeltem inoperablem, lokal fortgeschrittenem oder metastasiertem dreifach negativem Brustkrebs hervor
- Fenebrutinib von Genentech ist das erste Prüfpräparat seit über einem Jahrzehnt, das das Fortschreiten der Behinderung bei primär progressiver Multipler Sklerose (PPMS) reduziert
Haftungsausschluss
Es wurden alle Anstrengungen unternommen, um sicherzustellen, dass die von Drugslib.com bereitgestellten Informationen korrekt und aktuell sind aktuell und vollständig, eine Garantie hierfür kann jedoch nicht übernommen werden. Die hierin enthaltenen Arzneimittelinformationen können zeitkritisch sein. Die Informationen von Drugslib.com wurden für die Verwendung durch medizinisches Fachpersonal und Verbraucher in den Vereinigten Staaten zusammengestellt. Daher übernimmt Drugslib.com keine Gewähr dafür, dass eine Verwendung außerhalb der Vereinigten Staaten angemessen ist, sofern nicht ausdrücklich anders angegeben. Die Arzneimittelinformationen von Drugslib.com befürworten keine Arzneimittel, diagnostizieren keine Patienten und empfehlen keine Therapie. Die Arzneimittelinformationen von Drugslib.com sind eine Informationsquelle, die zugelassenen Ärzten bei der Betreuung ihrer Patienten helfen soll und/oder Verbrauchern dienen soll, die diesen Service als Ergänzung und nicht als Ersatz für die Fachkenntnisse, Fähigkeiten, Kenntnisse und Urteilsvermögen im Gesundheitswesen betrachten Praktiker.
Das Fehlen einer Warnung für ein bestimmtes Medikament oder eine bestimmte Medikamentenkombination sollte keinesfalls als Hinweis darauf ausgelegt werden, dass das Medikament oder die Medikamentenkombination für einen bestimmten Patienten sicher, wirksam oder geeignet ist. Drugslib.com übernimmt keinerlei Verantwortung für irgendeinen Aspekt der Gesundheitsversorgung, die mithilfe der von Drugslib.com bereitgestellten Informationen durchgeführt wird. Die hierin enthaltenen Informationen sollen nicht alle möglichen Verwendungen, Anweisungen, Vorsichtsmaßnahmen, Warnungen, Arzneimittelwechselwirkungen, allergischen Reaktionen oder Nebenwirkungen abdecken. Wenn Sie Fragen zu den Medikamenten haben, die Sie einnehmen, wenden Sie sich an Ihren Arzt, das medizinische Fachpersonal oder Ihren Apotheker.
Beliebte Schlüsselwörter
- metformin obat apa
- alahan panjang
- glimepiride obat apa
- takikardia adalah
- erau ernie
- pradiabetes
- besar88
- atrofi adalah
- kutu anjing
- trakeostomi
- mayzent pi
- enbrel auto injector not working
- enbrel interactions
- lenvima life expectancy
- leqvio pi
- what is lenvima
- lenvima pi
- empagliflozin-linagliptin
- encourage foundation for enbrel
- qulipta drug interactions