Errores tipográficos, jerga de viaje AI evaluaciones médicas

por Dennis Thompson Healthday Reporter

revisado medicalmente por Carmen. Última actualización el 26 de junio de 2025.

> vía salud a la salud<p> Jueves, 26 de junio de 2025 - Los errores de mecanografía humanos comunes pueden recorrer los programas de inteligencia artificial (IA) diseñados para ayudar a los trabajadores de la atención médica mediante la revisión de los registros de salud, según un nuevo estudio del MIT. </p> <p> los tipos tipos y espacios blancos adicionales pueden interferir con la capacidad de la IA para analizar adecuadamente los registros de pacientes, los investigadores <un rel = Informar Esta semana en una Conferencia de Asociación para la Computación de Maquinería en Atenas, Grecia.

Las referencias de género faltantes o el uso de la jerga también pueden asaltar las recomendaciones de tratamiento de una IA, señalan los investigadores.

Estos errores o opciones de idiomas humanos aumentaron la probabilidad de que una IA recomiende que un paciente autogestaje su problema de salud en lugar de buscar una cita, los resultados muestran.

También tenían más probabilidades de cambiar las recomendaciones de tratamiento de una IA para las mujeres, lo que resulta en un mayor porcentaje que se aconsejó erróneamente que no buscaran atención médica, agregan los investigadores.

"Estos modelos a menudo están capacitados y probados en preguntas de examen médico pero luego se usan en tareas que están bastante lejos de eso, como evaluar la gravedad de un caso clínico", dijo el investigador líder abinitha gourabathina . Es una estudiante graduada del Departamento de Ingeniería Eléctrica e Informática del MIT en Cambridge, Massachusetts.

Un creciente cuerpo de investigación está explorando la capacidad de la IA para proporcionar una segunda opinión para los médicos humanos, dijeron los investigadores en Notas de fondo. Los programas ya se están utilizando para ayudar a los médicos a redactar las notas clínicas y los mensajes de los pacientes.

Este estudio comenzó cuando Gourabathina realizó experimentos en los que cambió las señales de género en las notas de los pacientes, luego las alimentó a una IA. Se sorprendió al descubrir que los errores de formato simples causaron cambios significativos en las respuestas de IA.

Para explorar más a fondo este problema, los investigadores alteraron los registros al intercambiar o eliminar las referencias de género, insertar espacio adicional o errores tipográficos en mensajes de pacientes, o agregar un lenguaje colorido o incierto.

El lenguaje colorido podría incluir exclamaciones como "wow" o adverbios como "realmente" o "muy", dijeron los investigadores. Ejemplos de lenguaje incierto incluyen palabras de cobertura como "tipo de", "más o menos", "posiblemente" o "suponer".

Las notas del paciente conservaron todos los datos clínicos, como medicamentos recetados y diagnósticos anteriores, al tiempo que agregan un lenguaje que refleja con mayor precisión la forma en que las personas escriben y hablan.

"Los conjuntos de datos médicos en los que estos modelos están capacitados generalmente se limpian y estructuran, y no una reflexión muy realista de la población de pacientes", dijo Gourabathina. "Queríamos ver cómo estos cambios muy realistas en el texto podrían afectar los casos de uso aguas abajo".

El equipo realizó estos registros más allá de cuatro IA diferentes, preguntando si un paciente debe manejar sus síntomas en el hogar, venir a una visita clínica o obtener una prueba de laboratorio para evaluar mejor su condición.

Cuando los AIS fueron alimentados con los datos alterados o "perturbados", tenían un 7% a 9% más probabilidades de recomendar que los pacientes cuiden a sí mismos, los resultados muestran.

.

El uso de un lenguaje colorido como la jerga o las expresiones dramáticas tuvo el mayor impacto, dijeron los investigadores.

Los modelos de IA también cometieron aproximadamente un 7% más de errores para las pacientes femeninas y tenían más probabilidades de recomendar que las mujeres autogestionen en casa, incluso cuando los investigadores eliminaron todos los señales de género de los registros.

La investigación de seguimiento actualmente bajo revisión encontró que los mismos cambios no afectaron la precisión de los médicos humanos, agregaron los investigadores.

Los investigadores planean continuar su trabajo probando registros que imitan mejor los mensajes reales de los pacientes. También planean estudiar cómo los programas de IA infieren el género de las pruebas clínicas.

Los investigadores informaron sus hallazgos en la reunión, que termina hoy. Los resultados presentados en las reuniones médicas deben considerarse preliminares hasta que se publiquen en una revista revisada por pares.

fuentes

  • MIT, comunicado de prensa, 23 de junio de 2025
  • Descripción de los datos: Strong> Datos estadísticos en los artículos médicos en los artículos médicos y los artículos generales y las tendencias generales y no pertenecen a los personas. Los factores individuales pueden variar mucho. Siempre busque asesoramiento médico personalizado para decisiones de atención médica individuales.

    Fuente: Salud Day

    Leer más

    Descargo de responsabilidad

    Se ha hecho todo lo posible para garantizar que la información proporcionada por Drugslib.com sea precisa, hasta -fecha y completa, pero no se ofrece ninguna garantía a tal efecto. La información sobre medicamentos contenida en este documento puede ser urgente. La información de Drugslib.com ha sido compilada para uso de profesionales de la salud y consumidores en los Estados Unidos y, por lo tanto, Drugslib.com no garantiza que los usos fuera de los Estados Unidos sean apropiados, a menos que se indique específicamente lo contrario. La información sobre medicamentos de Drugslib.com no respalda medicamentos, ni diagnostica a pacientes ni recomienda terapias. La información sobre medicamentos de Drugslib.com es un recurso informativo diseñado para ayudar a los profesionales de la salud autorizados a cuidar a sus pacientes y/o para servir a los consumidores que ven este servicio como un complemento y no un sustituto de la experiencia, habilidad, conocimiento y criterio de la atención médica. practicantes.

    La ausencia de una advertencia para un determinado medicamento o combinación de medicamentos de ninguna manera debe interpretarse como una indicación de que el medicamento o la combinación de medicamentos es seguro, eficaz o apropiado para un paciente determinado. Drugslib.com no asume ninguna responsabilidad por ningún aspecto de la atención médica administrada con la ayuda de la información que proporciona Drugslib.com. La información contenida en este documento no pretende cubrir todos los posibles usos, instrucciones, precauciones, advertencias, interacciones medicamentosas, reacciones alérgicas o efectos adversos. Si tiene preguntas sobre los medicamentos que está tomando, consulte con su médico, enfermera o farmacéutico.

    Palabras clave populares