Uno studio rileva che i chatbot basati sull'intelligenza artificiale possono fornire consigli sanitari fuorvianti

Revisionato dal punto di vista medico da Carmen Pope, Senior Medical Editor, B. Pharm. Ultimo aggiornamento il 21 aprile 2026.

tramite HealthDay

MARTEDÌ 21 aprile 2026 — "Ho davvero bisogno della chemioterapia?"

"Questo rimedio naturale è più sicuro?"

"Mangiare zucchero provoca il cancro?"

Mentre sempre più persone si rivolgono all'intelligenza artificiale (AI) per risposte rapide a domande sulla salute come queste, un nuovo studio rileva che i consigli che ricevono a volte possono essere incompleti, fuorvianti o potenzialmente dannosi.

I ricercatori hanno testato diversi popolari chatbot IA per vedere come gestivano domande mediche comuni, inclusi argomenti noti per essere soggetti a disinformazione.

I risultati, recentemente pubblicati su BMJ Open, hanno sollevato preoccupazioni.

Nello studio, quasi la metà delle risposte dei chatbot erano "problematiche". Circa il 30% erano "piuttosto problematici", nel senso che mancavano di un contesto completo, mentre il 19,6% era considerato "altamente problematico", nel senso che offrivano informazioni imprecise o fuorvianti.

Il team, con sede presso il Lundquist Institute for Biomedical Innovation presso l'Harbour-UCLA Medical Center, ha testato strumenti tra cui ChatGPT, Gemini di Google, Meta AI, DeepSeek e Grok.

L'autore principale Nicholas Tiller ha affermato che le domande sono state progettate per riflettere il modo in cui le persone spesso cercano informazioni online.

"Molte persone si pongono esattamente quelle domande", ha detto Tiller a NBC News. "Se qualcuno crede che il latte crudo avrà dei benefici, allora i termini di ricerca saranno già impregnati di quel tipo di linguaggio."

I ricercatori hanno posto domande su argomenti come il cancro, i vaccini e se prodotti come la tecnologia 5G o gli antitraspiranti causano il cancro.

Sebbene molte risposte includessero avvertimenti accurati, alcune hanno introdotto idee rischiose.

Quando vengono interrogati sulle alternative alla chemioterapia, ad esempio, i chatbot spesso affermano che queste opzioni non sono state provate, ma suggeriscono comunque trattamenti come agopuntura, rimedi erboristici e diete speciali, ha riferito NBC News. Alcuni hanno addirittura indirizzato le persone verso cliniche che offrono questi servizi.

I ricercatori hanno chiamato questo "falso equilibrio", dove le informazioni scientifiche e non scientifiche ricevono lo stesso peso.

I medici avvertono che questo tipo di messaggi può essere dannoso.

"Alcune di queste cose feriscono direttamente le persone", ha affermato Dr. Michael Foote, un assistente professore presso il Memorial Sloan Kettering Cancer Center di New York City, che non era coinvolto nello studio.

"Alcuni di questi medicinali non sono valutati dalla [Food and Drug Administration] degli Stati Uniti, possono danneggiare il fegato, danneggiare il metabolismo e alcuni di essi provocano danni da parte dei pazienti che si affidano a loro e non seguono trattamenti convenzionali", ha affermato.

Foote ha aggiunto che l'intelligenza artificiale può anche creare paure inutili.

"Ho riscontrato pazienti che arrivano piangendo, davvero sconvolti perché il chatbot basato sull'intelligenza artificiale ha detto loro che hanno dai sei ai 12 mesi di vita, il che, ovviamente, è totalmente ridicolo", ha detto a NBC News.

Lo studio ha rilevato che le prestazioni del chatbot erano simili su tutte le piattaforme, ma Grok ha ottenuto il punteggio complessivo più basso.

Secondo un recente Sondaggio KFF.

Ma l'intelligenza artificiale non è ancora pronta per il debutto, avvertono gli esperti.

"La tecnologia necessaria, la metodologia necessaria alla FDA, alle persone, ai medici, per capire come funziona e avere fiducia nel sistema non sono ancora disponibili", ha affermato Dr. Ashwin Ramaswamy, istruttore di urologia al Mount Sinai Hospital di New York City.

Fonti

  • NBC News, 20 aprile 2026
  • Disclaimer: i dati statistici negli articoli medici forniscono tendenze generali e non riguardano singoli individui. I fattori individuali possono variare notevolmente. Cerca sempre una consulenza medica personalizzata per le decisioni sanitarie individuali.

    Fonte: HealthDay

    Per saperne di più

    Disclaimer

    È stato fatto ogni sforzo per garantire che le informazioni fornite da Drugslib.com siano accurate, aggiornate -datati e completi, ma non viene fornita alcuna garanzia in tal senso. Le informazioni sui farmaci qui contenute potrebbero essere sensibili al fattore tempo. Le informazioni su Drugslib.com sono state compilate per l'uso da parte di operatori sanitari e consumatori negli Stati Uniti e pertanto Drugslib.com non garantisce che l'uso al di fuori degli Stati Uniti sia appropriato, se non diversamente indicato. Le informazioni sui farmaci di Drugslib.com non sostengono farmaci, né diagnosticano pazienti né raccomandano terapie. Le informazioni sui farmaci di Drugslib.com sono una risorsa informativa progettata per assistere gli operatori sanitari autorizzati nella cura dei propri pazienti e/o per servire i consumatori che considerano questo servizio come un supplemento e non come un sostituto dell'esperienza, dell'abilità, della conoscenza e del giudizio dell'assistenza sanitaria professionisti.

    L'assenza di un'avvertenza per un determinato farmaco o combinazione di farmaci non deve in alcun modo essere interpretata come indicazione che il farmaco o la combinazione di farmaci sia sicura, efficace o appropriata per un dato paziente. Drugslib.com non si assume alcuna responsabilità per qualsiasi aspetto dell'assistenza sanitaria amministrata con l'aiuto delle informazioni fornite da Drugslib.com. Le informazioni contenute nel presente documento non intendono coprire tutti i possibili usi, indicazioni, precauzioni, avvertenze, interazioni farmacologiche, reazioni allergiche o effetti avversi. Se hai domande sui farmaci che stai assumendo, consulta il tuo medico, infermiere o farmacista.

    Parole chiave popolari