L'IA affiche un biais racial évaluant les cas de santé mentale
par Dennis Thompson Healthday Reporter
Médicalement examiné par Carmen Pope, Bpharm. Dernière mise à jour le 9 juillet 2025.

Mercredi 9 juillet 2025 - Les programmes d'IA peuvent présenter des biais raciaux lors de l'évaluation des patients pour des problèmes de santé mentale, selon une nouvelle étude.
Les recommandations psychiatriques de quatre modèles de grande langue (LLMS) ont changé lorsque le dossier d'un patient a noté qu'il était afro-américain, ont récemment signalé des chercheurs dans la revue NPJ Digital Medicine.
"La plupart des LLM ont présenté une certaine forme de biais lorsqu'ils traitent avec des patients afro-américains, faisant parfois des recommandations radicalement différentes pour la même maladie psychiatrique et par ailleurs un patient identique", a déclaré le chercheur principal "Ce biais était le plus évident dans les cas de schizophrénie et d'anxiété", a ajouté Aboujaoude dans un communiqué de presse. Les LLM sont formés sur d'énormes quantités de données, ce qui leur permet de comprendre et de générer un langage humain, ont déclaré des chercheurs dans les notes de fond. Ces programmes d'IA sont testés pour leur potentiel pour évaluer rapidement les patients et recommander des diagnostics et des traitements, ont déclaré des chercheurs. Pour cette étude, les chercheurs ont exécuté 10 cas hypothétiques via quatre LLM populaires, notamment ChatGPT-4O, Google’s Gemini 1.5 Pro, Claude 3.5 Sonnet et Newmes-V15, une version librement disponible d'un Meta LLM. Pour chaque cas, les programmes AI ont reçu trois versions différentes, celles qui ont été omit celui qui impliquait une race d'un patient en fonction de son nom. L'IA a souvent proposé différents traitements lorsque les dossiers ont déclaré ou impliqués qu'un patient était afro-américain, les résultats montrent: Aboujaoude theorizes the AIs displayed racial bias, because they picked it up from the content used to train them — essentially perpetuating inequalities that already exist in mental health care. “The findings of this important study serve as a call to action for stakeholders across the healthcare ecosystem to ensure that LLM technologies enhance health equity rather than reproduce or worsen existing inequities,” David Underhill , président des sciences biomédicales de Cedars-Sinai, dans un communiqué de presse. "Jusqu'à ce que cet objectif soit atteint, ces systèmes doivent être déployés avec prudence et considération sur la façon dont même les caractéristiques raciales subtiles peuvent affecter leur jugement", a ajouté Underhill, qui n'était pas impliqué dans la recherche. Avertissement: Les données statistiques dans les articles médicaux fournissent des tendances générales et ne concernent pas les individus. Les facteurs individuels peuvent varier considérablement. Recherchez toujours des conseils médicaux personnalisés pour les décisions de santé individuelles. Source: Healthday Publié : 2025-07-10 06:00 Tous les efforts ont été déployés pour garantir que les informations fournies par Drugslib.com sont exactes, jusqu'à -date et complète, mais aucune garantie n'est donnée à cet effet. Les informations sur les médicaments contenues dans ce document peuvent être sensibles au facteur temps. Les informations de Drugslib.com ont été compilées pour être utilisées par des professionnels de la santé et des consommateurs aux États-Unis et, par conséquent, Drugslib.com ne garantit pas que les utilisations en dehors des États-Unis sont appropriées, sauf indication contraire spécifique. Les informations sur les médicaments de Drugslib.com ne cautionnent pas les médicaments, ne diagnostiquent pas les patients et ne recommandent pas de thérapie. Les informations sur les médicaments de Drugslib.com sont une ressource d'information conçue pour aider les professionnels de la santé agréés à prendre soin de leurs patients et/ou pour servir les consommateurs qui considèrent ce service comme un complément et non un substitut à l'expertise, aux compétences, aux connaissances et au jugement des soins de santé. praticiens. L'absence d'avertissement pour un médicament ou une combinaison de médicaments donné ne doit en aucun cas être interprétée comme indiquant que le médicament ou la combinaison de médicaments est sûr, efficace ou approprié pour un patient donné. Drugslib.com n'assume aucune responsabilité pour aucun aspect des soins de santé administrés à l'aide des informations fournies par Drugslib.com. Les informations contenues dans le présent document ne sont pas destinées à couvrir toutes les utilisations, instructions, précautions, avertissements, interactions médicamenteuses, réactions allergiques ou effets indésirables possibles. Si vous avez des questions sur les médicaments que vous prenez, consultez votre médecin, votre infirmière ou votre pharmacien. Sources
En savoir plus
Avis de non-responsabilité
Mots-clés populaires