챗봇은 잘못된 정보가 많은 건강 주제에 대해 제대로 수행되지 않습니다.

Drugs.com에서 의학적으로 검토함

HealthDay를 통해

2026년 4월 17일 금요일 -- BMJ Open에서 4월 14일 온라인으로 발표된 연구에 따르면, 잘못된 정보가 많은 건강 주제에 관한 질문에 답변할 때 챗봇의 성능이 저하되었습니다.

캘리포니아주 토런스에 있는 Harbor-UCLA Medical Center의 Nicholas B. Tiller 박사와 동료들은 잘못된 정보가 발생하기 쉬운 건강 관련 질문에 대한 챗봇 응답을 감사했습니다. 2025년 2월 Gemini(Google), DeepSeek(High-Flyer), Meta AI(Meta), ChatGPT(OpenAI), Grok(xAI) 등 5가지 인기 챗봇에서 5가지 카테고리(암, 백신, 줄기세포, 영양, 운동 능력)의 10가지 질문이 프롬프트로 사용되었으며 2명의 전문가가 답변을 평가했습니다.

연구원들은 응답의 거의 절반(49.6%)이 문제가 있는 것으로 나타났습니다(30%는 다소 문제가 있고 19.6%는 매우 문제가 있음). Grok이 무작위 분포(z-점수, +2.07)에서 예상되는 것보다 훨씬 더 문제가 많은 응답을 생성했지만 응답 품질은 챗봇 간에 유사했습니다(P = 0.566). 백신(평균 z-점수, -2.57)과 암(-2.12)의 경우 성과가 가장 높았으나 줄기세포(+1.25), 운동 능력(+3.74), 영양(+4.35)에서는 가장 약했습니다. 참고문헌의 질은 좋지 않았으며, 완성도 중앙값은 40%였습니다. 환각 및 조작된 인용으로 인해 완전히 정확한 참조 목록을 생성하는 챗봇은 없습니다. 응답의 가독성은 대학 2학년~3학년 수준에 해당하는 '어려움'으로 등급이 매겨졌습니다.

"기본적으로 챗봇은 실시간 데이터에 액세스하지 않고 대신 훈련 데이터에서 통계 패턴을 추론하고 가능한 단어 시퀀스를 예측하여 출력을 생성합니다."라고 저자는 썼습니다. "그들은 추론하거나 증거에 무게를 두지 않으며 윤리적 또는 가치 기반 판단을 내릴 수 없습니다. 이러한 행동 제한은 챗봇이 권위 있게 들리지만 잠재적으로 결함이 있는 응답을 재현할 수 있음을 의미합니다."

요약/전체 텍스트

면책 조항: 의학 기사의 통계 데이터는 일반적인 추세를 제공하며, 개인에게 해당되지 않습니다. 개별적인 요인은 크게 다를 수 있습니다. 개별 의료 결정에 대해서는 항상 개인화된 의학적 조언을 구하세요.

출처: HealthDay

더 읽어보세요

면책조항

Drugslib.com에서 제공하는 정보의 정확성을 보장하기 위해 모든 노력을 기울였습니다. -날짜, 완전하지만 해당 효과에 대한 보장은 없습니다. 여기에 포함된 약물 정보는 시간에 민감할 수 있습니다. Drugslib.com 정보는 미국의 의료 종사자와 소비자가 사용하도록 편집되었으므로 달리 구체적으로 명시하지 않는 한 Drugslib.com은 미국 이외의 지역에서 사용하는 것이 적절하다고 보증하지 않습니다. Drugslib.com의 약물 정보는 약물을 보증하거나 환자를 진단하거나 치료법을 권장하지 않습니다. Drugslib.com의 약물 정보는 면허를 소지한 의료 종사자가 환자를 돌보는 데 도움을 주고/하거나 이 서비스를 건강 관리에 대한 전문 지식, 기술, 지식 및 판단을 대체하는 것이 아니라 보완으로 보는 소비자에게 제공하기 위해 설계된 정보 리소스입니다. 실무자.

특정 약물 또는 약물 조합에 대한 경고가 없다고 해서 해당 약물 또는 약물 조합이 해당 환자에게 안전하고 효과적이거나 적절하다는 의미로 해석되어서는 안 됩니다. Drugslib.com은 Drugslib.com이 제공하는 정보의 도움으로 관리되는 의료의 모든 측면에 대해 어떠한 책임도 지지 않습니다. 여기에 포함된 정보는 가능한 모든 용도, 지시 사항, 주의 사항, 경고, 약물 상호 작용, 알레르기 반응 또는 부작용을 다루기 위한 것이 아닙니다. 복용 중인 약에 대해 궁금한 점이 있으면 담당 의사, 간호사 또는 약사에게 문의하세요.

인기있는 키워드