ChatGPT funciona bien como 'socio' en el diagnóstico de pacientes

Revisado médicamente por Drugs.com.

Por Ernie Mundell HealthDay Reporter

MARTES, diciembre 12 de diciembre de 2023: Los cerebros de los médicos son excelentes para tomar decisiones, pero incluso los médicos más inteligentes podrían beneficiarse de un poco de ayuda de diagnóstico de ChatGPT, sugiere un nuevo estudio.

El principal beneficio proviene de un proceso de pensamiento conocido como "razonamiento probabilístico": conocer las probabilidades de que algo suceda (o no).

“Los seres humanos luchan con el razonamiento probabilístico, la práctica de tomar decisiones basadas en el cálculo de probabilidades”, explicó el autor principal del estudio Dr. Adam Rodman, del Centro Médico Beth Israel Deaconess en Boston.

“El razonamiento probabilístico es uno de varios componentes para hacer un diagnóstico, que es un proceso increíblemente complejo que utiliza una variedad de estrategias cognitivas diferentes. ", explicó en un comunicado de prensa de Beth Israel. "Elegimos evaluar el razonamiento probabilístico de forma aislada, porque es un área bien conocida donde los humanos podrían necesitar apoyo”.

El equipo de Beth Israel utilizó datos de una encuesta publicada anteriormente de 550 profesionales de la salud. A todos se les había pedido que realizaran un razonamiento probabilístico para diagnosticar cinco casos médicos distintos.

Sin embargo, en el nuevo estudio, el equipo de Rodman dio los mismos cinco casos al algoritmo de inteligencia artificial de ChatGPT, el modelo de lenguaje grande (LLM), ChatGPT-4.

Los casos incluían información de pruebas médicas comunes, como una exploración de tórax para detectar neumonía, una mamografía para detectar cáncer de mama, una prueba de esfuerzo para detectar enfermedad de las arterias coronarias y un urocultivo para detectar una infección del tracto urinario.

Basándose en esa información, el chatbot utilizó su propio razonamiento probabilístico para reevaluar la probabilidad de varios diagnósticos de pacientes.

De los cinco casos, el chatbot fue más preciso que el médico humano en dos; igualmente exacto para otros dos; y menos preciso para uno. Los investigadores consideraron que esto era un "empate" al comparar a los humanos con el chatbot para diagnósticos médicos.

Pero el chatbot ChatGPT-4 destacó cuando las pruebas de un paciente resultaron negativas (en lugar de positivas), volviéndose más preciso en diagnóstico que los médicos en los cinco casos.

“Los seres humanos a veces sienten que el riesgo es mayor que después de un resultado negativo de una prueba, lo que puede llevar a un tratamiento excesivo, más pruebas y demasiados medicamentos”, Rodman señaló. Es médico de medicina interna e investigador en el departamento de medicina de Beth Israel.

El estudio se publicó el 11 de diciembre en JAMA Network Open.

Es posible entonces que algún día los médicos trabajen en conjunto con la IA para ser aún más precisos en el diagnóstico de los pacientes, dijeron los investigadores.

Rodman calificó esa perspectiva como "emocionante".

"Aunque sea imperfecta, su facilidad de uso [los chatbots] y su capacidad para integrarse en los flujos de trabajo clínicos podrían, en teoría, hacer que los humanos tomen mejores decisiones. ", dijo. "Se necesitan urgentemente futuras investigaciones sobre la inteligencia colectiva humana y artificial".

Fuentes

  • Beth Israel Deaconess Medical Center, comunicado de prensa, 11 de diciembre, 2023
  • Descargo de responsabilidad: Los datos estadísticos de los artículos médicos proporcionan tendencias generales y no pertenecen a individuos. Los factores individuales pueden variar mucho. Siempre busque asesoramiento médico personalizado para decisiones individuales de atención médica.

    Fuente: HealthDay

    Leer más

    Descargo de responsabilidad

    Se ha hecho todo lo posible para garantizar que la información proporcionada por Drugslib.com sea precisa, hasta -fecha y completa, pero no se ofrece ninguna garantía a tal efecto. La información sobre medicamentos contenida en este documento puede ser urgente. La información de Drugslib.com ha sido compilada para uso de profesionales de la salud y consumidores en los Estados Unidos y, por lo tanto, Drugslib.com no garantiza que los usos fuera de los Estados Unidos sean apropiados, a menos que se indique específicamente lo contrario. La información sobre medicamentos de Drugslib.com no respalda medicamentos, ni diagnostica a pacientes ni recomienda terapias. La información sobre medicamentos de Drugslib.com es un recurso informativo diseñado para ayudar a los profesionales de la salud autorizados a cuidar a sus pacientes y/o para servir a los consumidores que ven este servicio como un complemento y no un sustituto de la experiencia, habilidad, conocimiento y criterio de la atención médica. practicantes.

    La ausencia de una advertencia para un determinado medicamento o combinación de medicamentos de ninguna manera debe interpretarse como una indicación de que el medicamento o la combinación de medicamentos es seguro, eficaz o apropiado para un paciente determinado. Drugslib.com no asume ninguna responsabilidad por ningún aspecto de la atención médica administrada con la ayuda de la información que proporciona Drugslib.com. La información contenida en este documento no pretende cubrir todos los posibles usos, instrucciones, precauciones, advertencias, interacciones medicamentosas, reacciones alérgicas o efectos adversos. Si tiene preguntas sobre los medicamentos que está tomando, consulte con su médico, enfermera o farmacéutico.

    Palabras clave populares