Un estudio encuentra que los chatbots de IA pueden dar consejos de salud engañosos

Revisado médicamente por Carmen Pope, editora médica senior, B. Pharm. Última actualización el 21 de abril de 2026.

vía HealthDay

MARTES, 21 de abril de 2026 — "¿Realmente necesito quimioterapia?"

"¿Es más seguro este remedio natural?"

"¿Comer azúcar causa cáncer?"

A medida que más personas recurren a la inteligencia artificial (IA) para obtener respuestas rápidas a preguntas de salud como estas, un nuevo estudio descubre que los consejos que reciben a veces pueden ser incompletos, engañosos o potencialmente dañinos.

Los investigadores probaron varios chatbots de IA populares para ver cómo manejaban preguntas médicas comunes, incluidos temas que se sabe que son propensos a la desinformación.

Los resultados, publicados recientemente en BMJ Open, plantearon preocupaciones.

En el estudio, casi la mitad de las respuestas de los chatbots fueron "problemáticas". Alrededor del 30 % eran "algo problemáticos", lo que significa que carecían de contexto completo, mientras que el 19,6 % se consideraban "altamente problemáticos", lo que significa que ofrecían información inexacta o engañosa.

El equipo, con sede en el Instituto Lundquist para la Innovación Biomédica del Centro Médico Harbor-UCLA, probó herramientas que incluyen ChatGPT, Gemini de Google, Meta AI, DeepSeek y Grok.

El autor principal Nicholas Tiller dijo que las preguntas fueron diseñadas para reflejar cómo las personas suelen buscar información en línea.

“Mucha gente hace exactamente esas preguntas”, dijo Tiller a NBC News. "Si alguien cree que la leche cruda va a ser beneficiosa, entonces los términos de búsqueda ya estarán preparados con ese tipo de lenguaje".

Los investigadores preguntaron sobre temas como el cáncer, las vacunas y si productos como la tecnología 5G o los antitranspirantes causan cáncer.

Si bien muchas respuestas incluyeron advertencias precisas, algunas introdujeron ideas arriesgadas.

Cuando se les preguntó acerca de alternativas a la quimioterapia, por ejemplo, los chatbots a menudo dijeron que estas opciones no estaban probadas, pero aun así sugirieron tratamientos como acupuntura, remedios a base de hierbas y dietas especiales, informó NBC News. Algunos incluso indicaron a las personas las clínicas que ofrecen estos servicios.

Los investigadores llamaron a esto "falso equilibrio", donde la información científica y no científica reciben el mismo peso.

Los médicos advierten que este tipo de mensajes pueden ser perjudiciales.

“Algunas de estas cosas dañan directamente a las personas”, dijo Dr. Michael Foote, profesor asistente del Centro Oncológico Memorial Sloan Kettering de la ciudad de Nueva York, que no participó en el estudio.

“Algunos de estos medicamentos no son evaluados por la [Administración de Alimentos y Medicamentos de EE. UU.], pueden dañar el hígado, dañar el metabolismo y algunos de ellos lo dañan porque los pacientes dependen de ellos y no realizan tratamientos convencionales”, dijo.

Foote añadió que la IA también puede crear miedo innecesario.

"Me he encontrado con pacientes que llegan llorando, realmente molestos porque el chatbot de IA les dijo que les quedaban entre seis y 12 meses de vida, lo cual, por supuesto, es totalmente ridículo", dijo a NBC News.

El estudio encontró que el rendimiento del chatbot fue similar en todas las plataformas, pero Grok obtuvo la puntuación más baja en general.

Alrededor de un tercio de los adultos utilizan actualmente la IA para dar consejos de salud, según un reciente encuesta KFF.

Pero los expertos advierten que la IA aún no está lista para el horario de máxima audiencia.

“La tecnología y la metodología necesarias para que la FDA, las personas y los médicos comprendan cómo funciona y confíen en el sistema aún no están disponibles”, afirmó Dr. Ashwin Ramaswamy, instructor de urología en el Hospital Mount Sinai de la ciudad de Nueva York.

Fuentes

  • NBC News, 20 de abril de 2026
  • Descargo de responsabilidad: Los datos estadísticos de los artículos médicos proporcionan tendencias generales y no se refieren a individuos. Los factores individuales pueden variar mucho. Busque siempre asesoramiento médico personalizado para decisiones de atención médica individuales.

    Fuente: HealthDay

    Leer más

    Descargo de responsabilidad

    Se ha hecho todo lo posible para garantizar que la información proporcionada por Drugslib.com sea precisa, hasta -fecha y completa, pero no se ofrece ninguna garantía a tal efecto. La información sobre medicamentos contenida en este documento puede ser urgente. La información de Drugslib.com ha sido compilada para uso de profesionales de la salud y consumidores en los Estados Unidos y, por lo tanto, Drugslib.com no garantiza que los usos fuera de los Estados Unidos sean apropiados, a menos que se indique específicamente lo contrario. La información sobre medicamentos de Drugslib.com no respalda medicamentos, ni diagnostica a pacientes ni recomienda terapias. La información sobre medicamentos de Drugslib.com es un recurso informativo diseñado para ayudar a los profesionales de la salud autorizados a cuidar a sus pacientes y/o para servir a los consumidores que ven este servicio como un complemento y no un sustituto de la experiencia, habilidad, conocimiento y criterio de la atención médica. practicantes.

    La ausencia de una advertencia para un determinado medicamento o combinación de medicamentos de ninguna manera debe interpretarse como una indicación de que el medicamento o la combinación de medicamentos es seguro, eficaz o apropiado para un paciente determinado. Drugslib.com no asume ninguna responsabilidad por ningún aspecto de la atención médica administrada con la ayuda de la información que proporciona Drugslib.com. La información contenida en este documento no pretende cubrir todos los posibles usos, instrucciones, precauciones, advertencias, interacciones medicamentosas, reacciones alérgicas o efectos adversos. Si tiene preguntas sobre los medicamentos que está tomando, consulte con su médico, enfermera o farmacéutico.

    Palabras clave populares