Estudo descobre que chatbots de IA podem fornecer conselhos de saúde enganosos

Revisado clinicamente por Carmen Pope, editora médica sênior, B. Pharm. Última atualização em 21 de abril de 2026.

via HealthDay

TERÇA-FEIRA, 21 de abril de 2026 — "Eu realmente preciso de quimioterapia?"

"Este remédio natural é mais seguro?"

"Comer açúcar causa câncer?"

À medida que mais pessoas recorrem à inteligência artificial (IA) para obter respostas rápidas a perguntas de saúde como essas, um novo estudo conclui que os conselhos que recebem às vezes podem ser incompletos, enganosos ou potencialmente prejudiciais.

Os pesquisadores testaram vários chatbots de IA populares para ver como eles lidavam com questões médicas comuns, incluindo tópicos conhecidos por serem propensos à desinformação.

Os resultados, publicados recentemente no BMJ Open, levantaram preocupações.

No estudo, quase metade das respostas do chatbot foram "problemáticas". Cerca de 30% eram "um pouco problemáticos", o que significa que não tinham contexto completo, enquanto 19,6% foram considerados "altamente problemáticos", o que significa que ofereciam informações imprecisas ou enganosas.

A equipe, baseada no Lundquist Institute for Biomedical Innovation no Harbor-UCLA Medical Center, testou ferramentas como ChatGPT, Gemini do Google, Meta AI, DeepSeek e Grok.

O autor principal Nicholas Tiller disse que as perguntas foram elaboradas para refletir como as pessoas costumam pesquisar informações on-line.

“Muitas pessoas estão fazendo exatamente essas perguntas”, disse Tiller à NBC News. “Se alguém acredita que o leite cru será benéfico, então os termos de pesquisa já estarão preparados com esse tipo de linguagem.”

Os pesquisadores perguntaram sobre temas como câncer, vacinas e se produtos como a tecnologia 5G ou antitranspirantes causam câncer.

Embora muitas respostas incluíssem avisos precisos, algumas introduziram ideias arriscadas.

Quando questionados sobre alternativas à quimioterapia, por exemplo, os chatbots frequentemente diziam que essas opções não estavam comprovadas, mas ainda assim sugeriam tratamentos como acupuntura, remédios fitoterápicos e dietas especiais, informou a NBC News. Alguns até encaminharam as pessoas para clínicas que oferecem esses serviços.

Os pesquisadores chamaram isso de "falso equilíbrio", onde informações científicas e não científicas recebem o mesmo peso.

Os médicos alertam que esse tipo de mensagem pode ser prejudicial.

“Algumas dessas coisas prejudicam as pessoas diretamente”, disse o Dr. Michael Foote, professor assistente do Memorial Sloan Kettering Cancer Center, na cidade de Nova York, que não esteve envolvido no estudo.

"Alguns desses medicamentos não são avaliados pela [U.S. Food and Drug Administration], podem prejudicar seu fígado, prejudicar seu metabolismo e alguns deles prejudicam você por pacientes que confiam neles e não fazem tratamentos convencionais", disse ele.

Foote acrescentou que a IA também pode criar medo desnecessário.

"Descobri que pacientes chegam chorando, muito chateados porque o chatbot de IA lhes disse que eles têm de seis a 12 meses de vida, o que, claro, é totalmente ridículo", disse ele à NBC News.

O estudo descobriu que o desempenho do chatbot era semelhante em todas as plataformas, mas Grok teve a pontuação geral mais baixa.

Cerca de um terço dos adultos agora usa IA para aconselhamento de saúde, de acordo com um recente Enquete KFF.

Mas a IA ainda não está pronta para o horário nobre, alertam os especialistas.

“A tecnologia necessária, a metodologia necessária para que a FDA, as pessoas, os médicos entendam como funciona e tenham confiança no sistema ainda não existem”, disse o Dr. Ashwin Ramaswamy, instrutor de urologia no Hospital Mount Sinai, na cidade de Nova York.

Fontes

  • NBC News, 20 de abril de 2026
  • Isenção de responsabilidade: os dados estatísticos em artigos médicos fornecem tendências gerais e não se referem a indivíduos. Fatores individuais podem variar muito. Sempre procure aconselhamento médico personalizado para decisões individuais de saúde.

    Fonte: HealthDay

    Consulte Mais informação

    Isenção de responsabilidade

    Todos os esforços foram feitos para garantir que as informações fornecidas por Drugslib.com sejam precisas, atualizadas -date e completo, mas nenhuma garantia é feita nesse sentido. As informações sobre medicamentos aqui contidas podem ser sensíveis ao tempo. As informações do Drugslib.com foram compiladas para uso por profissionais de saúde e consumidores nos Estados Unidos e, portanto, o Drugslib.com não garante que os usos fora dos Estados Unidos sejam apropriados, a menos que especificamente indicado de outra forma. As informações sobre medicamentos do Drugslib.com não endossam medicamentos, diagnosticam pacientes ou recomendam terapia. As informações sobre medicamentos do Drugslib.com são um recurso informativo projetado para ajudar os profissionais de saúde licenciados a cuidar de seus pacientes e/ou para atender os consumidores que veem este serviço como um complemento, e não um substituto, para a experiência, habilidade, conhecimento e julgamento dos cuidados de saúde. profissionais.

    A ausência de uma advertência para um determinado medicamento ou combinação de medicamentos não deve de forma alguma ser interpretada como indicação de que o medicamento ou combinação de medicamentos é seguro, eficaz ou apropriado para qualquer paciente. Drugslib.com não assume qualquer responsabilidade por qualquer aspecto dos cuidados de saúde administrados com a ajuda das informações fornecidas por Drugslib.com. As informações aqui contidas não se destinam a cobrir todos os possíveis usos, instruções, precauções, advertências, interações medicamentosas, reações alérgicas ou efeitos adversos. Se você tiver dúvidas sobre os medicamentos que está tomando, consulte seu médico, enfermeiro ou farmacêutico.

    Palavras -chave populares