Errori di battitura, viaggio di gergo Up AI Valutazioni mediche

di Dennis Thompson HealthDay Reporter

Via HealthDay

Giovedì 26 giugno 2025 - I comuni errori di tipizzazione umana possono inciampare programmi di intelligenza artificiale (AI) progettati per aiutare gli operatori sanitari esaminando i registri sanitari, afferma un nuovo studio del MIT.

errori di battitura e spazi bianchi extra possono interferire con la capacità di AI di analizzare correttamente i record dei pazienti, i ricercatori riportato questa settimana in un'associazione per la conferenza di macchinari informatici ad Atene, in Grecia.

Riferimenti di genere mancanti o l'uso del gergo possono anche mettere in fallo le raccomandazioni di trattamento di un'intelligenza artificiale, sottolineano i ricercatori.

Questi errori umani o le scelte linguistiche aumentano la probabilità che un'intelligenza artificiale raccomanderebbe che un paziente autogurga il loro problema di salute piuttosto che cercare un appuntamento, i risultati mostrano.

Avevano anche maggiori probabilità di cambiare le raccomandazioni terapeutiche di un'intelligenza artificiale per le donne, risultando in una percentuale più elevata che è stata erroneamente consigliata di non cercare cure mediche, i ricercatori aggiungono.

"Questi modelli sono spesso formati e testati su domande di esame medico ma quindi utilizzati in compiti che sono abbastanza lontani da quello, come valutare la grave grazia di una procedura clinica". href = "https://scholar.google.com/citations?user=aubfq6aaaaaj&hl=en"> abinitha gourabathina . È una studentessa laureata presso il Dipartimento di Ingegneria Elettrica e Informatica del MIT a Cambridge, Mass.

Un corpus di ricerca in crescita sta esplorando la capacità dell'IA di fornire una seconda opinione per i medici umani, hanno detto i ricercatori nelle note di fondo. I programmi vengono già utilizzati per aiutare i medici a redigere note cliniche e a triage messaggi dei pazienti.

Questo studio è iniziato quando Gourabathina ha gestito esperimenti in cui ha scambiato i segnali di genere nelle note del paziente, quindi li ha inseriti in un'intelligenza artificiale. È stata sorpresa di scoprire che semplici errori di formattazione hanno causato cambiamenti significativi nelle risposte di intelligenza artificiale.

Per esplorare ulteriormente questo problema, i ricercatori hanno modificato i record scambiando o rimuovendo i riferimenti di genere, inserendo spazio extra o errori di battitura nei messaggi del paziente o aggiungendo un linguaggio colorato o incerto.

Il linguaggio colorato potrebbe includere esclamazioni come "wow" o avverbi come "veramente" o "molto", hanno detto ricercatori. Esempi di linguaggio incerto includono parole di copertura come "tipo di", "tipo di", "possibilmente" o "supponiamo".

Il paziente note ha preservato tutti i dati clinici, come i farmaci da prescrizione e le diagnosi precedenti, aggiungendo un linguaggio che riflette più accuratamente il modo in cui le persone digitano e parlano.

"I set di dati medici su cui questi modelli sono addestrati sono generalmente puliti e strutturati e non una riflessione molto realistica della popolazione di pazienti", ha detto Gourabathina. "Volevamo vedere come questi cambiamenti molto realistici nel testo potessero influire sui casi d'uso a valle."

Il team ha eseguito questi record oltre quattro diversi IA, chiedendo se un paziente debba gestire i loro sintomi a casa, entrare per una visita in clinica o ottenere un test di laboratorio per valutare meglio le loro condizioni.

Quando gli IA sono stati alimentati con i dati alterati o "perturbati", erano dati del 7% al 9% in più.

L'uso di un linguaggio colorato come il gergo o le espressioni drammatiche hanno avuto il maggiore impatto, hanno detto i ricercatori.

I modelli AI hanno anche fatto circa il 7% in più di errori per le pazienti di sesso femminile e hanno maggiori probabilità di raccomandare che le donne si autoggettano a casa, anche quando i ricercatori hanno rimosso tutti i segnali di genere dai record.

La ricerca di follow-up attualmente in fase di revisione ha rilevato che le stesse modifiche non hanno influito sull'accuratezza dei medici umani, hanno aggiunto i ricercatori.

I ricercatori hanno in programma di continuare il loro lavoro testando record che imitano meglio i messaggi reali dai pazienti. Hanno anche in programma di studiare come i programmi di intelligenza artificiale deducono il genere dai test clinici.

I ricercatori hanno riportato i loro risultati durante l'incontro, che termina oggi. I risultati presentati durante le riunioni mediche dovrebbero essere considerati preliminari fino a quando non vengono pubblicati in una rivista peer-reviewed.

Fonti

  • MIT, comunicato stampa, 23 giugno 2025
  • Disclaimer: Soltitical Data e non perpitanti. I singoli fattori possono variare notevolmente. Cerca sempre una consulenza medica personalizzata per le decisioni di assistenza sanitaria individuali.

    Fonte: Healthday

    Per saperne di più

    Disclaimer

    È stato fatto ogni sforzo per garantire che le informazioni fornite da Drugslib.com siano accurate, aggiornate -datati e completi, ma non viene fornita alcuna garanzia in tal senso. Le informazioni sui farmaci qui contenute potrebbero essere sensibili al fattore tempo. Le informazioni su Drugslib.com sono state compilate per l'uso da parte di operatori sanitari e consumatori negli Stati Uniti e pertanto Drugslib.com non garantisce che l'uso al di fuori degli Stati Uniti sia appropriato, se non diversamente indicato. Le informazioni sui farmaci di Drugslib.com non sostengono farmaci, né diagnosticano pazienti né raccomandano terapie. Le informazioni sui farmaci di Drugslib.com sono una risorsa informativa progettata per assistere gli operatori sanitari autorizzati nella cura dei propri pazienti e/o per servire i consumatori che considerano questo servizio come un supplemento e non come un sostituto dell'esperienza, dell'abilità, della conoscenza e del giudizio dell'assistenza sanitaria professionisti.

    L'assenza di un'avvertenza per un determinato farmaco o combinazione di farmaci non deve in alcun modo essere interpretata come indicazione che il farmaco o la combinazione di farmaci sia sicura, efficace o appropriata per un dato paziente. Drugslib.com non si assume alcuna responsabilità per qualsiasi aspetto dell'assistenza sanitaria amministrata con l'aiuto delle informazioni fornite da Drugslib.com. Le informazioni contenute nel presente documento non intendono coprire tutti i possibili usi, indicazioni, precauzioni, avvertenze, interazioni farmacologiche, reazioni allergiche o effetti avversi. Se hai domande sui farmaci che stai assumendo, consulta il tuo medico, infermiere o farmacista.

    Parole chiave popolari