Studiul arată că chatbot-urile AI pot oferi sfaturi înșelătoare pentru sănătate
via HealthMARȚI, 21 aprilie 2026 — „Chiar am nevoie de chimioterapie?”
„Este acest remediu natural mai sigur?”
„Mâncatul de zahăr provoacă cancer?”
Pe măsură ce tot mai mulți oameni apelează la inteligența artificială (AI) pentru răspunsuri rapide la întrebări de sănătate ca acestea, un nou studiu constată că sfaturile pe care le primesc pot fi uneori incomplete, înșelătoare sau potențial dăunătoare.
Cercetătorii au testat mai mulți chatboți populari de inteligență artificială pentru a vedea cum au tratat întrebări medicale obișnuite, inclusiv subiecte despre care se știe că sunt predispuse la dezinformare.
Rezultatele, publicate recent în În studiu, aproape jumătate dintre răspunsurile chatbot au fost „problematice”. Aproximativ 30% au fost „oarecum problematice”, ceea ce înseamnă că le lipsea contextul complet, în timp ce 19,6% au fost considerate „foarte problematice”, ceea ce înseamnă că au oferit informații inexacte sau înșelătoare. Echipa, cu sediul la Institutul Lundquist pentru Inovație Biomedicală de la Harbour-UCLA Medical Center, a testat instrumente, inclusiv ChatGPT, Meta și Google AI, GrominiepSe Autorul principal Nicholas Tiller a spus că întrebările au fost concepute pentru a reflecta modul în care oamenii caută adesea informații online. „Mulți oameni își pun exact acele întrebări”, a spus Tiller pentru NBC News. „Dacă cineva crede că laptele crud va fi benefic, atunci termenii de căutare vor fi deja pregătiți cu acest tip de limbaj.” Cercetătorii au întrebat despre subiecte precum cancerul, vaccinurile și dacă produse precum tehnologia 5G sau antiperspiranții cauzează cancer. Deși multe răspunsuri au inclus avertismente precise, unele au introdus idei riscante. Când au fost întrebați despre alternativele la chimioterapie, de exemplu, chatboții au spus adesea că aceste opțiuni nu au fost dovedite, dar au sugerat totuși tratamente precum target="medical_blank" diete, a raportat NBC News. Unii chiar au indicat oamenii către clinici care oferă aceste servicii. Cercetătorii au numit acest „balans fals”, în care informațiile științifice și cele neștiințifice primesc egală greutate. Medicii avertizează că acest tip de mesaje poate fi dăunătoare. „Unele dintre aceste lucruri îi rănesc pe oameni în mod direct”, a spus Dr. Michael Foote, profesor asistent la Memorial Sloan Kettering Cancer Center din New York, care nu a fost implicat în studiu. „Unele dintre aceste medicamente nu sunt evaluate de [U.S. Food and Drug Administration], vă pot afecta ficatul, vă pot afecta metabolismul, iar unele dintre ele vă fac rău de către pacienții care se bazează pe ele și nu fac tratamente convenționale”, a spus el. Foote a adăugat că AI poate crea și frică inutilă. „Am întâlnit cazuri în care pacienții vin plângând, foarte supărați pentru că chatbot-ul AI le-a spus că au de trăit șase până la 12 luni, ceea ce, desigur, este total ridicol”, a spus el pentru NBC News. Studiul a constatat că performanța chatbot-ului a fost similară pe platforme, dar Grok a obținut cel mai mic punctaj general. Aproximativ o treime dintre adulți folosesc acum inteligența artificială pentru sfaturi privind sănătatea, potrivit unui recent Sondaj KFF. Dar AI nu este încă pregătită pentru prime time, avertizează experții. „Tehnologia de care este nevoie, metodologia care este necesară pentru FDA, pentru oameni, pentru medici, pentru a înțelege cum funcționează și pentru a avea încredere în sistem nu există încă”, a spus Dr. Ashwin Ramaswamy, un instructor de urologie la Spitalul Mount Sinai din New York. Declinare responsabilitate: Date statistice generale în articolele medicale nu furnizează indivizilor și articolele medicale. Factorii individuali pot varia foarte mult. Solicitați întotdeauna sfaturi medicale personalizate pentru decizii individuale de îngrijire a sănătății. Sursa: Ziua Sănătății Postat : 2026-04-22 02:09 S-au depus toate eforturile pentru a se asigura că informațiile furnizate de Drugslib.com sunt exacte, actualizate -data și completă, dar nu se face nicio garanție în acest sens. Informațiile despre medicamente conținute aici pot fi sensibile la timp. Informațiile Drugslib.com au fost compilate pentru a fi utilizate de către practicienii din domeniul sănătății și consumatorii din Statele Unite și, prin urmare, Drugslib.com nu garantează că utilizările în afara Statelor Unite sunt adecvate, cu excepția cazului în care se indică altfel. Informațiile despre medicamente de la Drugslib.com nu susțin medicamente, nu diagnostichează pacienții și nu recomandă terapie. Informațiile despre medicamente de la Drugslib.com sunt o resursă informațională concepută pentru a ajuta practicienii autorizați din domeniul sănătății în îngrijirea pacienților lor și/sau pentru a servi consumatorilor care văd acest serviciu ca un supliment și nu un substitut pentru expertiza, abilitățile, cunoștințele și raționamentul asistenței medicale. practicieni. Lipsa unui avertisment pentru un anumit medicament sau combinație de medicamente nu trebuie în niciun fel interpretată ca indicând faptul că medicamentul sau combinația de medicamente este sigură, eficientă sau adecvată pentru un anumit pacient. Drugslib.com nu își asumă nicio responsabilitate pentru niciun aspect al asistenței medicale administrat cu ajutorul informațiilor furnizate de Drugslib.com. Informațiile conținute aici nu sunt destinate să acopere toate utilizările posibile, instrucțiunile, precauțiile, avertismentele, interacțiunile medicamentoase, reacțiile alergice sau efectele adverse. Dacă aveți întrebări despre medicamentele pe care le luați, consultați medicul, asistenta sau farmacistul.Surse
Citeşte mai mult
Declinare de responsabilitate
Cuvinte cheie populare