AI-therapeut? Het schiet tekort, waarschuwt een nieuwe studie

Medisch beoordeeld door Carmen Pope, BPHarm. Laatst bijgewerkt op 3 maart 2026.

via HealthDay

Dinsdag 3 maart 2026 — Steeds meer mensen vragen kunstmatige intelligentie (AI)-chatbots om hulp bij dagelijkse problemen, van werkstress tot relatieproblemen en meer.

Een nieuwe studie waarschuwt dat deze systemen mogelijk tekortschieten als het gaat om advies op het gebied van de geestelijke gezondheidszorg.

Een team van de Brown University in Providence, Rhode Island, ontdekte dat zelfs wanneer AI-systemen wordt opgedragen zich als getrainde therapeuten te gedragen, ze vaak niet voldoen aan de professionele ethische normen.

Het team werkte samen met deskundigen op het gebied van de geestelijke gezondheidszorg om te onderzoeken hoe deze systemen reageren in counselingachtige gesprekken.

Hun onderzoek onderzocht een reeks ethische risico's om aan te tonen hoe counselors met een groot taalmodel (LLM) de normen in de geestelijke gezondheidszorg schenden.

Verschillende grote AI-systemen, waaronder versies van OpenAI's GPT-modellen, en Anthropic's Claude en Meta's Llama zijn getest.

Voor het onderzoek vroegen onderzoekers getrainde peer-counselors om oefentherapiesessies met de AI te houden, waarbij ze aanwijzingen gebruikten die waren ontworpen om de systemen te laten werken als counselors voor cognitieve gedragstherapie (CGT) of dialectische gedragstherapie (DGT).

Drie erkende psychologen beoordeelden vervolgens de AI-reacties.

Het onderzoek identificeerde 15 verschillende risico's, gegroepeerd in vijf hoofdgebieden:

  • Algemene context: De AI negeerde vaak de unieke achtergrond van een persoon.
  • Slechte samenwerking: Het leidde soms gesprekken te sterk of versterkte schadelijke overtuigingen.
  • Bedrieglijke empathie: De AI gebruikte uitdrukkingen als 'Ik begrijp het' zonder emoties echt te begrijpen.
  • Vooroordeel: sommige reacties vertoonden gender-, religieuze of culturele vooroordelen.
  • Zwakke crisisreactie: in sommige gevallen gingen chatbots verkeerd om met zelfmoordgedachten of slaagden ze er niet in gebruikers naar de juiste hulp te leiden.
  • "We doen een beroep op toekomstig werk om ethische, educatieve en juridische normen te creëren voor LLM-adviseurs - normen die een weerspiegeling zijn van de kwaliteit en nauwkeurigheid van de zorg die nodig is voor door mensen gefaciliteerde psychotherapie", schreven onderzoekers.

    Hoofdonderzoeker Zainab Iftikhar, a promovendus in computerwetenschappen bij Brown, zei dat aanwijzingen alleen niet genoeg zijn om AI-systemen veilig te maken voor therapie.

    "Prompts zijn instructies die aan het model worden gegeven om zijn gedrag te sturen", legde ze uit. "Je verandert het onderliggende model niet en verstrekt geen nieuwe gegevens, maar de prompt helpt de output van het model te sturen op basis van de reeds bestaande kennis en aangeleerde patronen.

    Veel mensen delen therapie-achtige prompts op TikTok, Instagram en Reddit. Sommige consumentenapps voor de geestelijke gezondheidszorg gebruiken deze prompttechnieken ook om AI-chatfuncties aan te sturen.

    Iftikhar merkte op dat menselijke therapeuten ook fouten kunnen maken. Het verschil, zei ze? Toezicht.

    "Voor menselijke therapeuten zijn er bestuursraden en mechanismen waarmee zorgverleners professioneel aansprakelijk kunnen worden gesteld voor mishandeling en wanpraktijken", aldus Iftikhar in een persbericht. "Maar wanneer LLM-adviseurs deze overtredingen begaan, zijn er geen gevestigde regelgevende kaders."

    Onderzoekers zeggen dat AI-tools nog steeds kunnen helpen de toegang tot geestelijke gezondheidszorg te vergroten, vooral voor mensen die zich geen erkende professional kunnen veroorloven of vinden.

    Maar ze benadrukten dat er sterkere waarborgen nodig zijn voordat er in ernstige situaties op deze systemen kan worden vertrouwd.

    "Als je met een chatbot over geestelijke gezondheid praat, zijn dit enkele dingen waar mensen op moeten letten", zegt Iftikhar.

    Ellie Pavlick, hoogleraar computerwetenschappen bij Brown die niet betrokken was bij het onderzoek, sprak over de noodzaak om opzettelijk te bewegen.

    “De realiteit van AI vandaag de dag is dat het veel gemakkelijker is om systemen te bouwen en in te zetten dan om ze te evalueren en te begrijpen,” zei ze.

    “Er is een reële kans voor AI om een ​​rol te spelen in het bestrijden van de geestelijke gezondheidscrisis waarmee onze samenleving wordt geconfronteerd, maar het is van het grootste belang dat we de tijd nemen om onze systemen echt te bekritiseren en te evalueren bij elke stap om te voorkomen dat we meer kwaad dan goed doen”, aldus Pavlick. "Dit werk is een goed voorbeeld van hoe dat eruit kan zien."

    De bevindingen werden gepresenteerd op een conferentie van de Association for the Advancement of Artificial Intelligence en Association for Computing Machinery.

    Onderzoek dat tijdens bijeenkomsten wordt gepresenteerd, wordt als voorlopig beschouwd totdat het wordt gepubliceerd in een peer-reviewed tijdschrift.

    Bronnen

  • Brown University, persbericht, 2 maart 2026
  • Disclaimer: Statistische gegevens in medische artikelen geven algemene trends weer en hebben geen betrekking op individuen. Individuele factoren kunnen sterk variëren. Vraag altijd persoonlijk medisch advies voor individuele beslissingen over de gezondheidszorg.

    Bron: HealthDay

    Lees verder

    Disclaimer

    Er is alles aan gedaan om ervoor te zorgen dat de informatie die wordt verstrekt door Drugslib.com accuraat en up-to-date is -datum en volledig, maar daarvoor wordt geen garantie gegeven. De hierin opgenomen geneesmiddelinformatie kan tijdgevoelig zijn. De informatie van Drugslib.com is samengesteld voor gebruik door zorgverleners en consumenten in de Verenigde Staten en daarom garandeert Drugslib.com niet dat gebruik buiten de Verenigde Staten gepast is, tenzij specifiek anders aangegeven. De geneesmiddeleninformatie van Drugslib.com onderschrijft geen geneesmiddelen, diagnosticeert geen patiënten of beveelt geen therapie aan. De geneesmiddeleninformatie van Drugslib.com is een informatiebron die is ontworpen om gelicentieerde zorgverleners te helpen bij de zorg voor hun patiënten en/of om consumenten te dienen die deze service zien als een aanvulling op en niet als vervanging voor de expertise, vaardigheden, kennis en beoordelingsvermogen van de gezondheidszorg. beoefenaars.

    Het ontbreken van een waarschuwing voor een bepaald medicijn of een bepaalde medicijncombinatie mag op geen enkele manier worden geïnterpreteerd als een indicatie dat het medicijn of de medicijncombinatie veilig, effectief of geschikt is voor een bepaalde patiënt. Drugslib.com aanvaardt geen enkele verantwoordelijkheid voor enig aspect van de gezondheidszorg die wordt toegediend met behulp van de informatie die Drugslib.com verstrekt. De informatie in dit document is niet bedoeld om alle mogelijke toepassingen, aanwijzingen, voorzorgsmaatregelen, waarschuwingen, geneesmiddelinteracties, allergische reacties of bijwerkingen te dekken. Als u vragen heeft over de medicijnen die u gebruikt, neem dan contact op met uw arts, verpleegkundige of apotheker.

    Populaire zoekwoorden