¿Terapeuta de IA? Se queda corto, advierte un nuevo estudio

Revisado médicamente por Carmen Pope, BPharm. Última actualización el 3 de marzo de 2026.

vía HealthDay

MARTES, 3 de marzo de 2026: Cada vez más personas piden ayuda a los chatbots de inteligencia artificial (IA) con sus problemas diarios, desde el estrés laboral hasta las preocupaciones en las relaciones y más.

Ahora, un nuevo estudio advierte que cuando se trata de asesoramiento sobre salud mental, estos sistemas pueden quedarse cortos.

Un equipo de la Universidad de Brown en Providence, Rhode Island, descubrió que incluso cuando a los sistemas de IA se les dice que actúen como terapeutas capacitados, a menudo no cumplen con los estándares de ética profesional.

El equipo trabajó con expertos en salud mental para examinar cómo responden estos sistemas en conversaciones similares a las de asesoramiento.

Su estudio examinó una serie de riesgos éticos para mostrar cómo los consejeros de modelos de lenguaje grandes (LLM) violan los estándares en la práctica de la salud mental.

Varios sistemas importantes de IA, incluidas versiones de los modelos GPT OpenAI, Claude y Llama de Meta, fueron probados.

Para el estudio, los investigadores pidieron a consejeros capacitados que realizaran sesiones de terapia de práctica con la IA, utilizando indicaciones diseñadas para hacer que los sistemas actuaran como consejeros de terapia cognitivo-conductual (TCC) o terapia dialéctica-conductual (DBT).

Luego, tres psicólogos autorizados revisaron las respuestas de la IA.

El estudio identificó 15 riesgos diferentes, agrupados en cinco áreas principales:

  • Contexto genérico: la IA a menudo ignoraba los antecedentes únicos de una persona.
  • Colaboración deficiente: a veces dirigía las conversaciones con demasiada fuerza o reforzaba creencias dañinas.
  • Empatía engañosa: la IA usaba frases como "Entiendo" sin captar realmente las emociones.
  • Sesgo: algunas respuestas mostraban prejuicios de género, religiosos o culturales.
  • Respuesta débil a la crisis: en algunos casos, los chatbots manejaron mal los pensamientos suicidas o no guiaron a los usuarios hacia la ayuda adecuada.
  • "Hacemos un llamado a trabajar en el futuro para crear estándares éticos, educativos y legales para los consejeros de LLM, estándares que reflejen la calidad y el rigor de la atención requerida para la psicoterapia facilitada por humanos", escribieron los investigadores.

    Investigador principal Zainab Iftikhar, candidato a doctorado en informática en Brown, dijo que las indicaciones por sí solas no son suficientes para hacer que los sistemas de IA sean seguros para la terapia.

    “Las indicaciones son instrucciones que se dan al modelo para guiar su comportamiento”, explicó. "No se cambia el modelo subyacente ni se proporcionan nuevos datos, pero el mensaje ayuda a guiar el resultado del modelo en función de su conocimiento preexistente y patrones aprendidos.

    Muchas personas comparten mensajes de estilo terapéutico en TikTok, Instagram y Reddit. Algunas aplicaciones de salud mental para consumidores también utilizan estas técnicas de mensajes para potenciar las funciones de chat de IA.

    Iftikhar señaló que los terapeutas humanos también pueden cometer errores. ¿La diferencia, dijo? Supervisión.

    "Para los terapeutas humanos, existen juntas directivas y mecanismos para que los proveedores sean considerados profesionalmente responsables por maltrato y negligencia", dijo Iftikhar en un comunicado de prensa. "Pero cuando los consejeros de LLM cometen estas violaciones, no existen marcos regulatorios establecidos".

    Los investigadores dijeron que las herramientas de inteligencia artificial aún podrían ayudar a ampliar el acceso al apoyo de salud mental, especialmente para las personas que no pueden pagar o encontrar un profesional autorizado.

    Pero subrayaron que se necesitan salvaguardias más fuertes antes de depender de estos sistemas en situaciones graves.

    “Si estás hablando con un chatbot sobre salud mental, estas son algunas cosas a las que la gente debería prestar atención”, dijo Iftikhar.

    Ellie Pavlick, profesora de informática en Brown que no participó en el estudio, habló sobre la necesidad de moverse deliberadamente.

    “La realidad actual de la IA es que es mucho más fácil construir e implementar sistemas que evaluarlos y comprenderlos”, dijo.

    "Existe una oportunidad real para que la IA desempeñe un papel en la lucha contra la crisis de salud mental que enfrenta nuestra sociedad, pero es de suma importancia que nos tomemos el tiempo para realmente criticar y evaluar nuestros sistemas en cada paso del camino para evitar hacer más daño que bien", afirmó Pavlick. "Este trabajo ofrece un buen ejemplo de cómo puede verse eso".

    Los hallazgos se presentaron en una conferencia de la Asociación para el Avance de la Inteligencia Artificial y la Asociación para Maquinaria de Computación.

    La investigación presentada en reuniones se considera preliminar hasta que se publique en una revista revisada por pares.

    Fuentes

  • Universidad de Brown, comunicado de prensa, 2 de marzo de 2026
  • Descargo de responsabilidad: Los datos estadísticos de los artículos médicos proporcionan tendencias generales y no se refieren a individuos. Los factores individuales pueden variar mucho. Busque siempre asesoramiento médico personalizado para decisiones individuales de atención médica.

    Fuente: HealthDay

    Leer más

    Descargo de responsabilidad

    Se ha hecho todo lo posible para garantizar que la información proporcionada por Drugslib.com sea precisa, hasta -fecha y completa, pero no se ofrece ninguna garantía a tal efecto. La información sobre medicamentos contenida en este documento puede ser urgente. La información de Drugslib.com ha sido compilada para uso de profesionales de la salud y consumidores en los Estados Unidos y, por lo tanto, Drugslib.com no garantiza que los usos fuera de los Estados Unidos sean apropiados, a menos que se indique específicamente lo contrario. La información sobre medicamentos de Drugslib.com no respalda medicamentos, ni diagnostica a pacientes ni recomienda terapias. La información sobre medicamentos de Drugslib.com es un recurso informativo diseñado para ayudar a los profesionales de la salud autorizados a cuidar a sus pacientes y/o para servir a los consumidores que ven este servicio como un complemento y no un sustituto de la experiencia, habilidad, conocimiento y criterio de la atención médica. practicantes.

    La ausencia de una advertencia para un determinado medicamento o combinación de medicamentos de ninguna manera debe interpretarse como una indicación de que el medicamento o la combinación de medicamentos es seguro, eficaz o apropiado para un paciente determinado. Drugslib.com no asume ninguna responsabilidad por ningún aspecto de la atención médica administrada con la ayuda de la información que proporciona Drugslib.com. La información contenida en este documento no pretende cubrir todos los posibles usos, instrucciones, precauciones, advertencias, interacciones medicamentosas, reacciones alérgicas o efectos adversos. Si tiene preguntas sobre los medicamentos que está tomando, consulte con su médico, enfermera o farmacéutico.

    Palabras clave populares