Thérapeute IA ? Ce n’est pas suffisant, prévient une nouvelle étude
via HealthDayMARDI 3 mars 2026 – De plus en plus de personnes demandent de l'aide aux chatbots d'intelligence artificielle (IA) pour résoudre leurs problèmes quotidiens, du stress au travail aux soucis relationnels et bien plus encore.
Maintenant, une nouvelle étude prévient qu'en matière de conseils en matière de santé mentale, ces systèmes pourraient ne pas être à la hauteur.
Une équipe de l'université Brown de Providence, Rhode Island, a découvert que même lorsque l'on demande aux systèmes d'IA d'agir comme des thérapeutes qualifiés, ils ne respectent souvent pas les normes d'éthique professionnelle.
L'équipe a travaillé avec des experts en santé mentale pour examiner comment ces systèmes réagissent lors de conversations de type conseil.
Leur étude a examiné une série de risques éthiques pour montrer comment les conseillers du modèle de langage large (LLM) enfreignent les normes de pratique de la santé mentale.
Plusieurs systèmes d'IA majeurs, y compris les versions des OpenAI GPT, les Claude et Llama de Meta, ont été testés.
Pour l'étude, les chercheurs ont demandé à des pairs conseillers formés d'organiser des séances de thérapie pratique avec l'IA, en utilisant des invites conçues pour faire agir les systèmes comme des conseillers en thérapie cognitivo-comportementale (TCC) ou en thérapie comportementale dialectique (TCD).
Trois psychologues agréés ont ensuite examiné les réponses de l'IA.
L'étude a identifié 15 risques différents, regroupés en cinq domaines principaux :
"Nous appelons aux travaux futurs visant à créer des normes éthiques, éducatives et juridiques pour les conseillers LLM - des normes qui reflètent la qualité et la rigueur des soins requis pour la psychothérapie facilitée par l'homme", ont écrit les chercheurs.
Chercheur principal Zainab Iftikhar, doctorant en informatique à Brown, a déclaré que les invites à elles seules ne suffisent pas à rendre les systèmes d'IA sûrs pour la thérapie.
"Les invites sont des instructions données au modèle pour guider son comportement", a-t-elle expliqué. "Vous ne modifiez pas le modèle sous-jacent et ne fournissez pas de nouvelles données, mais l'invite aide à guider le résultat du modèle en fonction de ses connaissances préexistantes et des modèles appris.
De nombreuses personnes partagent des invites de style thérapeutique sur TikTok, Instagram et Reddit. Certaines applications grand public de santé mentale utilisent également ces techniques d'invite pour alimenter les fonctionnalités de chat IA.
Iftikhar a noté que les thérapeutes humains peuvent également commettre des erreurs. La différence, dit-elle ? Surveillance.
"Pour les thérapeutes humains, il existe des conseils d'administration et des mécanismes permettant aux prestataires d'être tenus professionnellement responsables des mauvais traitements et des fautes professionnelles", a déclaré Iftikhar dans un communiqué de presse. "Mais lorsque les conseillers LLM commettent ces violations, il n'existe aucun cadre réglementaire établi."
Les chercheurs ont déclaré que les outils d'IA pourraient encore contribuer à élargir l'accès au soutien en matière de santé mentale, en particulier pour les personnes qui n'ont pas les moyens financiers ou qui n'ont pas les moyens de trouver un professionnel agréé.
Mais ils ont souligné que des garanties plus solides sont nécessaires avant de s'appuyer sur ces systèmes dans des situations graves.
"Si vous parlez de santé mentale à un chatbot, ce sont des éléments auxquels les gens devraient prêter attention", a déclaré Iftikhar.
Ellie Pavlick, professeur d'informatique à Brown qui n'a pas participé à l'étude, a parlé de la nécessité de déménager. délibérément.
« La réalité de l'IA aujourd'hui est qu'il est beaucoup plus facile de construire et de déployer des systèmes que de les évaluer et de les comprendre », a-t-elle déclaré.
« Il existe une réelle opportunité pour l'IA de jouer un rôle dans la lutte contre la crise de santé mentale à laquelle notre société est confrontée, mais il est de la plus haute importance que nous prenions le temps de vraiment critiquer et d'évaluer nos systèmes à chaque étape du processus pour éviter de faire plus de mal que de bien », a déclaré Pavlick. "Ce travail offre un bon exemple de ce à quoi cela peut ressembler."
Les résultats ont été présentés lors d'une conférence de l'Association pour l'avancement de l'intelligence artificielle et de l'Association pour les machines informatiques.
Les recherches présentées lors des réunions sont considérées comme préliminaires jusqu'à ce qu'elles soient publiées dans une revue à comité de lecture.
Sources
Avertissement : Les données statistiques contenues dans les articles médicaux fournissent des tendances générales et ne concernent pas les individus. Les facteurs individuels peuvent varier considérablement. Demandez toujours un avis médical personnalisé pour les décisions individuelles en matière de soins de santé.
Source : HealthDay
Publié : 2026-03-04 01:42
En savoir plus
- La consommation de boissons sucrées est liée à l'anxiété chez les adolescents
- Trader Joe's rappelle du riz frit au poulet sur d'éventuels morceaux de verre
- L'exposition à la fumée des incendies de forêt pendant la grossesse peut augmenter le risque d'autisme chez la progéniture
- La course à l’ultra-marathon épuise les globules rouges des athlètes, selon une étude
- Keytruda et Keytruda Qlex, plus Paclitaxel ± Bevacizumab, approuvés pour certains adultes atteints de carcinome de l'ovaire PD-L1+ (CPS ≥1) résistant au platine
Avis de non-responsabilité
Tous les efforts ont été déployés pour garantir que les informations fournies par Drugslib.com sont exactes, jusqu'à -date et complète, mais aucune garantie n'est donnée à cet effet. Les informations sur les médicaments contenues dans ce document peuvent être sensibles au facteur temps. Les informations de Drugslib.com ont été compilées pour être utilisées par des professionnels de la santé et des consommateurs aux États-Unis et, par conséquent, Drugslib.com ne garantit pas que les utilisations en dehors des États-Unis sont appropriées, sauf indication contraire spécifique. Les informations sur les médicaments de Drugslib.com ne cautionnent pas les médicaments, ne diagnostiquent pas les patients et ne recommandent pas de thérapie. Les informations sur les médicaments de Drugslib.com sont une ressource d'information conçue pour aider les professionnels de la santé agréés à prendre soin de leurs patients et/ou pour servir les consommateurs qui considèrent ce service comme un complément et non un substitut à l'expertise, aux compétences, aux connaissances et au jugement des soins de santé. praticiens.
L'absence d'avertissement pour un médicament ou une combinaison de médicaments donné ne doit en aucun cas être interprétée comme indiquant que le médicament ou la combinaison de médicaments est sûr, efficace ou approprié pour un patient donné. Drugslib.com n'assume aucune responsabilité pour aucun aspect des soins de santé administrés à l'aide des informations fournies par Drugslib.com. Les informations contenues dans le présent document ne sont pas destinées à couvrir toutes les utilisations, instructions, précautions, avertissements, interactions médicamenteuses, réactions allergiques ou effets indésirables possibles. Si vous avez des questions sur les médicaments que vous prenez, consultez votre médecin, votre infirmière ou votre pharmacien.
Mots-clés populaires
- metformin obat apa
- alahan panjang
- glimepiride obat apa
- takikardia adalah
- erau ernie
- pradiabetes
- besar88
- atrofi adalah
- kutu anjing
- trakeostomi
- mayzent pi
- enbrel auto injector not working
- enbrel interactions
- lenvima life expectancy
- leqvio pi
- what is lenvima
- lenvima pi
- empagliflozin-linagliptin
- encourage foundation for enbrel
- qulipta drug interactions