Terapeuta dell'intelligenza artificiale? Non è sufficiente, avverte un nuovo studio
tramite HealthDayMARTEDÌ 3 marzo 2026 — Sempre più persone chiedono aiuto ai chatbot di intelligenza artificiale (AI) per risolvere i problemi quotidiani, dallo stress lavorativo alle preoccupazioni relazionali e altro ancora.
Ora, un nuovo studio avverte che quando si tratta di consigli sulla salute mentale, questi sistemi potrebbero non essere all'altezza.
Un team della Brown University di Providence, nel Rhode Island, ha scoperto che anche quando ai sistemi di intelligenza artificiale viene detto di agire come terapisti addestrati, spesso non riescono a soddisfare gli standard di etica professionale.
Il team ha collaborato con esperti di salute mentale per esaminare come questi sistemi rispondono a conversazioni simili a consulenza.
Il loro studio ha esaminato una serie di rischi etici per mostrare come i consulenti del modello linguistico di grandi dimensioni (LLM) violano gli standard nella pratica della salute mentale.
Diversi principali sistemi di intelligenza artificiale, comprese le versioni dei modelli GPT OpenAI, i Claude e Llama di Meta, sono stati testati.
Per lo studio, i ricercatori hanno chiesto a consulenti tra pari formati di tenere sessioni di terapia pratica con l'IA, utilizzando suggerimenti progettati per far sì che i sistemi agissero come consulenti di terapia cognitivo comportamentale (CBT) o terapia comportamentale dialettica (DBT).
Tre psicologi autorizzati hanno quindi esaminato le risposte dell'IA.
Lo studio ha identificato 15 rischi diversi, raggruppati in cinque aree principali:
"Invitiamo il lavoro futuro per creare standard etici, educativi e legali per i consulenti LLM - standard che riflettano la qualità e il rigore delle cure richieste per la psicoterapia facilitata dall'uomo", hanno scritto i ricercatori.
Ricercatore capo Zainab Iftikhar, dottorando in informatica alla Brown, ha affermato che i suggerimenti da soli non sono sufficienti per rendere i sistemi di intelligenza artificiale sicuri per la terapia.
"I prompt sono istruzioni fornite al modello per guidarne il comportamento", ha spiegato. "Non si modifica il modello sottostante né si forniscono nuovi dati, ma il prompt aiuta a guidare l'output del modello in base alle conoscenze preesistenti e ai modelli appresi.
Molte persone condividono suggerimenti in stile terapeutico su TikTok, Instagram e Reddit. Alcune app di salute mentale consumer utilizzano anche queste tecniche di prompt per potenziare le funzionalità di chat dell'intelligenza artificiale.
Iftikhar ha osservato che anche i terapisti umani possono commettere errori. La differenza, ha detto? Supervisione.
"Per i terapisti umani, esistono consigli di amministrazione e meccanismi affinché i fornitori siano ritenuti professionalmente responsabili per maltrattamenti e negligenze", ha affermato Iftikhar in un comunicato stampa. "Ma quando i consulenti LLM commettono queste violazioni, non esistono quadri normativi stabiliti."
I ricercatori hanno affermato che gli strumenti di intelligenza artificiale potrebbero ancora contribuire ad espandere l'accesso al supporto per la salute mentale, soprattutto per le persone che non possono permettersi o trovare un professionista autorizzato.
Ma hanno sottolineato che sono necessarie garanzie più forti prima di fare affidamento su questi sistemi in situazioni gravi.
"Se stai parlando di salute mentale con un chatbot, queste sono alcune cose a cui le persone dovrebbero prestare attenzione", ha detto Iftikhar.
Ellie Pavlick, una professoressa di informatica alla Brown che non era coinvolta nello studio, ha parlato della necessità di muoversi deliberatamente.
"La realtà dell'intelligenza artificiale oggi è che è molto più semplice costruire e implementare sistemi che valutarli e comprenderli", ha affermato.
"Esiste una reale opportunità per l'intelligenza artificiale di svolgere un ruolo nella lotta alla crisi di salute mentale che la nostra società sta affrontando, ma è della massima importanza che ci prendiamo il tempo per criticare e valutare veramente i nostri sistemi in ogni fase del processo per evitare di fare più danni che benefici", ha affermato Pavlick. "Questo lavoro offre un buon esempio di come potrebbe essere."
I risultati sono stati presentati in una conferenza dell'Associazione per il progresso dell'intelligenza artificiale e dell'Associazione per le macchine informatiche.
La ricerca presentata alle riunioni è considerata preliminare fino alla pubblicazione in una rivista sottoposta a revisione paritaria.
Fonti
Disclaimer: i dati statistici negli articoli medici forniscono tendenze generali e non riguardano singoli individui. I fattori individuali possono variare notevolmente. Cerca sempre una consulenza medica personalizzata per le decisioni sanitarie individuali.
Fonte: HealthDay
Pubblicato : 2026-03-04 01:42
Per saperne di più
- Gli stati guidati dai democratici fanno causa all’amministrazione Trump per i tagli al programma dei vaccini infantili
- Casi di cancro al seno, i decessi dovrebbero aumentare in tutto il mondo
- La FDA approva la soluzione orale di Desmoda (desmopressina acetato) per il diabete insipido centrale
- Vivere in prossimità delle centrali nucleari può aumentare il rischio di mortalità per cancro
- Umeclidinio-Vilanterolo legato a risultati migliori rispetto ad altri inalatori LAMA-LABA nella BPCO sintomatica
- Omicidio, suicidio e overdose principali cause di morte materna
Disclaimer
È stato fatto ogni sforzo per garantire che le informazioni fornite da Drugslib.com siano accurate, aggiornate -datati e completi, ma non viene fornita alcuna garanzia in tal senso. Le informazioni sui farmaci qui contenute potrebbero essere sensibili al fattore tempo. Le informazioni su Drugslib.com sono state compilate per l'uso da parte di operatori sanitari e consumatori negli Stati Uniti e pertanto Drugslib.com non garantisce che l'uso al di fuori degli Stati Uniti sia appropriato, se non diversamente indicato. Le informazioni sui farmaci di Drugslib.com non sostengono farmaci, né diagnosticano pazienti né raccomandano terapie. Le informazioni sui farmaci di Drugslib.com sono una risorsa informativa progettata per assistere gli operatori sanitari autorizzati nella cura dei propri pazienti e/o per servire i consumatori che considerano questo servizio come un supplemento e non come un sostituto dell'esperienza, dell'abilità, della conoscenza e del giudizio dell'assistenza sanitaria professionisti.
L'assenza di un'avvertenza per un determinato farmaco o combinazione di farmaci non deve in alcun modo essere interpretata come indicazione che il farmaco o la combinazione di farmaci sia sicura, efficace o appropriata per un dato paziente. Drugslib.com non si assume alcuna responsabilità per qualsiasi aspetto dell'assistenza sanitaria amministrata con l'aiuto delle informazioni fornite da Drugslib.com. Le informazioni contenute nel presente documento non intendono coprire tutti i possibili usi, indicazioni, precauzioni, avvertenze, interazioni farmacologiche, reazioni allergiche o effetti avversi. Se hai domande sui farmaci che stai assumendo, consulta il tuo medico, infermiere o farmacista.
Parole chiave popolari
- metformin obat apa
- alahan panjang
- glimepiride obat apa
- takikardia adalah
- erau ernie
- pradiabetes
- besar88
- atrofi adalah
- kutu anjing
- trakeostomi
- mayzent pi
- enbrel auto injector not working
- enbrel interactions
- lenvima life expectancy
- leqvio pi
- what is lenvima
- lenvima pi
- empagliflozin-linagliptin
- encourage foundation for enbrel
- qulipta drug interactions