Fautes de frappe, voyage en argot dans les évaluations médicales de l'IA
par Dennis Thompson Healthday Reporter
Médicalement examiné par Carmen Pope, Bpharm. Dernière mise à jour le 26 juin 2025.

Jeudi 26 juin 2025 - Les erreurs de dactylographie humaines communes peuvent déclencher des programmes d'intelligence artificielle (AI) conçus pour aider les travailleurs de la santé en examinant les dossiers de santé, selon une nouvelle étude du MIT.
Les frappes et les espaces blancs supplémentaires peuvent interférer avec la capacité de l'IA à analyser correctement les dossiers des patients, les chercheurs a rapporté cette semaine lors d'une conférence Association for Computing Machinery à Athènes, en Grèce.
Les références de genre manquantes ou l'utilisation de l'argot peuvent également vaincre les recommandations de traitement d'une IA, les chercheurs soulignent.
Ces erreurs humaines ou les choix de langues ont augmenté la probabilité qu'un IA recommande à un patient d'auto-gérer son problème de santé plutôt que de demander un rendez-vous, montrent les résultats.
Ils étaient également plus susceptibles de modifier les recommandations de traitement d'une IA pour les femmes, ce qui a entraîné un pourcentage plus élevé qui a été conseillé à tort de ne pas consulter des soins médicaux, les chercheurs ajout.
"Ces modèles sont souvent formés et testés sur les questions d'examen médical, mais ensuite utilisées dans le chercheur principal Abinitha Gourabathina . Elle est étudiante diplômée du Département de génie électrique et informatique du MIT à Cambridge, Mass.
Un ensemble croissant de recherches explore la capacité de l'IA à fournir un deuxième avis aux médecins humains, ont déclaré les chercheurs dans des notes de fond. Les programmes sont déjà utilisés pour aider les médecins à rédiger des notes cliniques et des messages du patient de triage.
Cette étude a commencé lorsque Gourabathina a lancé des expériences dans lesquelles elle a échangé des indices de genre dans des notes de patients, puis les a alimentées dans une IA. Elle a été surprise de trouver que les erreurs de formatage simples ont provoqué des changements significatifs dans les réponses de l'IA.
Pour explorer davantage ce problème, les chercheurs ont modifié les enregistrements en échangeant ou en supprimant les références de genre, en insérant un espace supplémentaire ou des fautes de frappe dans des messages du patient, ou en ajoutant un langage coloré ou incertain.
Le langage coloré peut inclure des exclamations comme «wow» ou des adverbes comme «vraiment» ou «très», ont déclaré les chercheurs. Des exemples de langage incertain incluent des mots de couverture comme «en quelque sorte», «en quelque sorte», «peut-être» ou «supposons».
Les notes des patients ont préservé toutes les données cliniques, comme les médicaments sur ordonnance et les diagnostics précédents, tout en ajoutant un langage qui reflète plus précisément la façon dont les gens tapent et parlent.
"Les ensembles de données médicaux sur lesquels ces modèles sont formés sont généralement nettoyés et structurés, et non un reflet très réaliste de la population de patients", a déclaré Gourabathina. «Nous voulions voir comment ces changements de texte très réalistes pourraient avoir un impact sur les cas d'utilisation en aval.»
L'équipe a dirigé ces enregistrements après quatre IA différentes, demandant si un patient devrait gérer ses symptômes à la maison, venir pour une visite en clinique ou faire un test de laboratoire pour mieux évaluer son état.
Lorsque les IS ont été nourris les données modifiées ou «perturbées», ils étaient de 7% à 9% plus susceptibles de recommander que les patients soient pris en charge, les résultats.
L'utilisation d'un langage coloré comme l'argot ou les expressions dramatiques a eu le plus grand impact, ont déclaré les chercheurs.
Les modèles d'IA ont également commis environ 7% d'erreurs supplémentaires pour les patientes et étaient plus susceptibles de recommander que les femmes soient auto-réparties à la maison - même lorsque les chercheurs ont supprimé tous les indices de genre des enregistrements.
La recherche de suivi actuellement en cours a révélé que les mêmes changements n’avaient pas affecté la précision des médecins humains, ont ajouté les chercheurs.
Les chercheurs prévoient de poursuivre leur travail en testant des enregistrements qui imitent mieux les messages réels des patients. Ils prévoient également d'étudier comment les programmes d'IA déduisent le sexe des tests cliniques.
Les chercheurs ont signalé leurs résultats lors de la réunion, qui se termine aujourd'hui. Les résultats présentés lors des réunions médicales devraient être considérés comme préliminaires jusqu'à ce qu'ils soient publiés dans un journal évalué par des pairs.
Sources
Les individus ne sont pas des données statistiques dans les articules médicaux dans les articules médicaux et les individus à percer. Les facteurs individuels peuvent varier considérablement. Recherchez toujours des conseils médicaux personnalisés pour les décisions de santé individuelles.
Source: Healthday
Publié : 2025-06-27 00:00
En savoir plus

- L'Illinois rapporte le premier cas de virus du Nil occidental de 2025
- Apnée obstructive légère plus fréquente chez les athlètes féminines que prévu
- Tyrese Haliburton des Pacers déchire Achille dans le match 7 de la finale de la NBA
- Un régime riche en fibres réduit le risque d'artères durcies
- Eli Lilly pour acheter une entreprise de thérapie génique Verve dans un accord de 1 milliard de dollars pour développer un médicament cardiaque
- Nouvelle variante covide, NB.1.8.1, peut désormais constituer 1 cas sur 3 sur 3
Avis de non-responsabilité
Tous les efforts ont été déployés pour garantir que les informations fournies par Drugslib.com sont exactes, jusqu'à -date et complète, mais aucune garantie n'est donnée à cet effet. Les informations sur les médicaments contenues dans ce document peuvent être sensibles au facteur temps. Les informations de Drugslib.com ont été compilées pour être utilisées par des professionnels de la santé et des consommateurs aux États-Unis et, par conséquent, Drugslib.com ne garantit pas que les utilisations en dehors des États-Unis sont appropriées, sauf indication contraire spécifique. Les informations sur les médicaments de Drugslib.com ne cautionnent pas les médicaments, ne diagnostiquent pas les patients et ne recommandent pas de thérapie. Les informations sur les médicaments de Drugslib.com sont une ressource d'information conçue pour aider les professionnels de la santé agréés à prendre soin de leurs patients et/ou pour servir les consommateurs qui considèrent ce service comme un complément et non un substitut à l'expertise, aux compétences, aux connaissances et au jugement des soins de santé. praticiens.
L'absence d'avertissement pour un médicament ou une combinaison de médicaments donné ne doit en aucun cas être interprétée comme indiquant que le médicament ou la combinaison de médicaments est sûr, efficace ou approprié pour un patient donné. Drugslib.com n'assume aucune responsabilité pour aucun aspect des soins de santé administrés à l'aide des informations fournies par Drugslib.com. Les informations contenues dans le présent document ne sont pas destinées à couvrir toutes les utilisations, instructions, précautions, avertissements, interactions médicamenteuses, réactions allergiques ou effets indésirables possibles. Si vous avez des questions sur les médicaments que vous prenez, consultez votre médecin, votre infirmière ou votre pharmacien.
Mots-clés populaires
- metformin obat apa
- alahan panjang
- glimepiride obat apa
- takikardia adalah
- erau ernie
- pradiabetes
- besar88
- atrofi adalah
- kutu anjing
- trakeostomi
- mayzent pi
- enbrel auto injector not working
- enbrel interactions
- lenvima life expectancy
- leqvio pi
- what is lenvima
- lenvima pi
- empagliflozin-linagliptin
- encourage foundation for enbrel
- qulipta drug interactions