ChatGPT funziona bene come "partner" nella diagnosi dei pazienti

Revisionato dal punto di vista medico da Drugs.com.

Di Ernie Mundell HealthDay Reporter

MARTEDÌ dicembre 12, 2023 -- Il cervello dei medici è un grande decisore, ma anche i medici più intelligenti potrebbero trarre vantaggio da un piccolo aiuto diagnostico da ChatGPT, suggerisce un nuovo studio.

Il vantaggio principale deriva da un processo di pensiero noto come "ragionamento probabilistico": conoscere le probabilità che qualcosa accada (o non accada).

"Gli esseri umani lottano con il ragionamento probabilistico, la pratica di prendere decisioni basate sul calcolo delle probabilità", ha spiegato l'autore principale dello studio Dr. Adam Rodman, del Beth Israel Deaconess Medical Center di Boston.

"Il ragionamento probabilistico è uno dei numerosi componenti per formulare una diagnosi, che è un processo incredibilmente complesso che utilizza una varietà di diverse strategie cognitive ", ha spiegato in un comunicato stampa di Beth Israel. "Abbiamo scelto di valutare il ragionamento probabilistico isolatamente, perché è un'area ben nota in cui gli esseri umani potrebbero aver bisogno di supporto."

Il team di Beth Israel ha utilizzato dati provenienti da un sondaggio precedentemente pubblicato su 550 operatori sanitari. A tutti era stato chiesto di eseguire un ragionamento probabilistico per diagnosticare cinque casi medici separati.

Nel nuovo studio, tuttavia, il team di Rodman ha fornito gli stessi cinque casi all'algoritmo AI di ChatGPT, il Large Language Model (LLM), ChatGPT-4.

I casi includevano informazioni provenienti da test medici comuni, come una scansione del torace per la polmonite, una mammografia per il cancro al seno, uno stress test per la malattia coronarica e un'urinocoltura per l'infezione del tratto urinario.

Sulla base di queste informazioni, il chatbot ha utilizzato il proprio ragionamento probabilistico per rivalutare la probabilità di diagnosi di vari pazienti.

Dei cinque casi, in due casi il chatbot si è rivelato più accurato del medico umano; altrettanto accurato per altri due; e meno accurato per uno. I ricercatori hanno considerato questo un "pareggio" nel confrontare gli esseri umani con il chatbot per le diagnosi mediche.

Ma il chatbot ChatGPT-4 eccelleva quando i test di un paziente risultavano negativi (anziché positivi), diventando più accurati diagnosi rispetto ai medici in tutti e cinque i casi.

"Gli esseri umani a volte ritengono che il rischio sia maggiore rispetto a dopo un risultato negativo del test, il che può portare a un trattamento eccessivo, a più test e a troppi farmaci", Rodman ha sottolineato. È un medico di medicina interna e ricercatore presso il dipartimento di medicina del Beth Israel.

Lo studio è stato pubblicato l'11 dicembre su JAMA Network Open.

È possibile quindi che un giorno i medici lavorino in tandem con l'intelligenza artificiale per diventare ancora più accurati nella diagnosi dei pazienti, hanno detto i ricercatori.

Rodman ha definito quella prospettiva "entusiasmante".

"Anche se imperfetti, la facilità d'uso dei loro [chatbot] e la capacità di integrarsi nei flussi di lavoro clinici potrebbero teoricamente far sì che gli esseri umani prendano decisioni migliori ", ha affermato. "La ricerca futura sull'intelligenza collettiva umana e artificiale è assolutamente necessaria."

Fonti

  • Beth Israel Deaconess Medical Center, comunicato stampa, 11 dicembre, 2023
  • Disclaimer: i dati statistici contenuti negli articoli medici forniscono tendenze generali e non si riferiscono ai singoli individui. I fattori individuali possono variare notevolmente. Sempre richiedere una consulenza medica personalizzata per le decisioni sanitarie individuali.

    Fonte: HealthDay

    Per saperne di più

    Disclaimer

    È stato fatto ogni sforzo per garantire che le informazioni fornite da Drugslib.com siano accurate, aggiornate -datati e completi, ma non viene fornita alcuna garanzia in tal senso. Le informazioni sui farmaci qui contenute potrebbero essere sensibili al fattore tempo. Le informazioni su Drugslib.com sono state compilate per l'uso da parte di operatori sanitari e consumatori negli Stati Uniti e pertanto Drugslib.com non garantisce che l'uso al di fuori degli Stati Uniti sia appropriato, se non diversamente indicato. Le informazioni sui farmaci di Drugslib.com non sostengono farmaci, né diagnosticano pazienti né raccomandano terapie. Le informazioni sui farmaci di Drugslib.com sono una risorsa informativa progettata per assistere gli operatori sanitari autorizzati nella cura dei propri pazienti e/o per servire i consumatori che considerano questo servizio come un supplemento e non come un sostituto dell'esperienza, dell'abilità, della conoscenza e del giudizio dell'assistenza sanitaria professionisti.

    L'assenza di un'avvertenza per un determinato farmaco o combinazione di farmaci non deve in alcun modo essere interpretata come indicazione che il farmaco o la combinazione di farmaci sia sicura, efficace o appropriata per un dato paziente. Drugslib.com non si assume alcuna responsabilità per qualsiasi aspetto dell'assistenza sanitaria amministrata con l'aiuto delle informazioni fornite da Drugslib.com. Le informazioni contenute nel presente documento non intendono coprire tutti i possibili usi, indicazioni, precauzioni, avvertenze, interazioni farmacologiche, reazioni allergiche o effetti avversi. Se hai domande sui farmaci che stai assumendo, consulta il tuo medico, infermiere o farmacista.

    Parole chiave popolari