Исследование показало, что чат-боты с искусственным интеллектом могут давать вводящие в заблуждение советы по вопросам здоровья

Медицинская рецензия Кармен Поуп, старший медицинский редактор, B. Фарм. Последнее обновление: 21 апреля 2026 г.

через HealthDay

ВТОРНИК, 21 апреля 2026 г. — «Действительно ли мне нужна химиотерапия?»

"Это натуральное средство безопаснее?"

"Вызывает ли употребление сахара рак?"

Поскольку все больше людей обращаются к искусственному интеллекту (ИИ) за быстрыми ответами на подобные вопросы о здоровье, новое исследование показывает, что получаемые ими советы иногда могут быть неполными, вводящими в заблуждение или потенциально вредными.

Исследователи протестировали несколько популярных чат-ботов с искусственным интеллектом, чтобы увидеть, как они решают распространенные медицинские вопросы, включая темы, которые, как известно, склонны к дезинформации.

Результаты, недавно опубликованные в BMJ Open, подняли вопрос опасения.

В ходе исследования почти половина ответов чат-ботов были «проблемными». Около 30% из них были «несколько проблемными», то есть им не хватало полного контекста, а 19,6% были признаны «крайне проблематичными», то есть предлагали неточную или вводящую в заблуждение информацию.

Команда, базирующаяся в Институте биомедицинских инноваций Лундквиста при Медицинском центре Харбор-UCLA, протестировала такие инструменты, как ChatGPT, Gemini от Google, Meta AI, DeepSeek и Grok.

Ведущий автор Николас Тиллер сказал, что вопросы были составлены так, чтобы отразить, как люди часто ищут информацию в Интернете.

«Многие люди задают именно эти вопросы», — сказал Тиллер NBC News. «Если кто-то верит, что сырое молоко принесет пользу, то поисковые запросы уже будут содержать такие формулировки».

Исследователи задавали вопросы о таких темах, как рак, вакцины и о том, вызывают ли такие продукты, как технология 5G или антиперспиранты, рак.

Хотя многие ответы содержали точные предупреждения, некоторые содержали рискованные идеи.

Например, когда их спрашивали об альтернативах химиотерапии, чат-боты часто говорили, что эти варианты не доказаны, но все же предлагали такие методы лечения, как иглоукалывание, лечебные травы. и специальные диеты, сообщает NBC News. Некоторые даже указывали людям на клиники, предлагающие подобные услуги.

Исследователи назвали это «ложным балансом», когда научная и ненаучная информация имеют одинаковый вес.

Врачи предупреждают, что такого рода сообщения могут быть вредными.

"Некоторые из этих вещей причиняют непосредственный вред людям", - сказал доктор. Майкл Фут, доцент Мемориального онкологического центра Слоан-Кеттеринг в Нью-Йорке, не принимавший участия в исследовании.

"Некоторые из этих лекарств не прошли оценку [Управления по санитарному надзору за качеством пищевых продуктов и медикаментов США] и могут нанести вред вашей печени, метаболизму, а некоторые из них навредят вам, потому что пациенты полагаются на них и не применяют традиционные методы лечения", - сказал он.

Фут добавил, что ИИ также может вызывать ненужный страх.

"Я сталкивался с пациентами, которые приходят в слезах, очень расстроенные, потому что чат-бот с искусственным интеллектом сказал им, что им осталось жить от шести до 12 месяцев, что, конечно, совершенно смешно", - сказал он NBC News.

Исследование показало, что производительность чат-бота была одинаковой на разных платформах, но Грок в целом набрал самый низкий балл.

По данным недавнего исследования опрос KFF.

Но ИИ еще не готов к прайм-тайму, эксперты предупредить.

«Технологии, которая необходима FDA, людям и врачам, чтобы понять, как она работает, и доверять системе, пока еще нет», — сказал доктор. Ашвин Рамасвами, преподаватель урологии в больнице Маунт-Синай в Нью-Йорке.

Источники

  • NBC News, 20 апреля 2026 г.
  • Отказ от ответственности: Статистические данные в медицинских статьях отражают общие тенденции и не касаются отдельных лиц. Индивидуальные факторы могут сильно различаться. Всегда обращайтесь за индивидуальной медицинской консультацией для принятия индивидуальных медицинских решений.

    Источник: HealthDay

    Читать далее

    Отказ от ответственности

    Мы приложили все усилия, чтобы гарантировать, что информация, предоставляемая Drugslib.com, является точной и соответствует -дата и полная информация, но никаких гарантий на этот счет не предоставляется. Содержащаяся здесь информация о препарате может меняться с течением времени. Информация Drugslib.com была собрана для использования медицинскими работниками и потребителями в Соединенных Штатах, и поэтому Drugslib.com не гарантирует, что использование за пределами Соединенных Штатов является целесообразным, если специально не указано иное. Информация о лекарствах на сайте Drugslib.com не рекламирует лекарства, не диагностирует пациентов и не рекомендует терапию. Информация о лекарствах на сайте Drugslib.com — это информационный ресурс, предназначенный для помощи лицензированным практикующим врачам в уходе за своими пациентами и/или для обслуживания потребителей, рассматривающих эту услугу как дополнение, а не замену опыта, навыков, знаний и суждений в области здравоохранения. практики.

    Отсутствие предупреждения для данного препарата или комбинации препаратов никоим образом не должно быть истолковано как указание на то, что препарат или комбинация препаратов безопасны, эффективны или подходят для конкретного пациента. Drugslib.com не несет никакой ответственности за какой-либо аспект здравоохранения, администрируемый с помощью информации, предоставляемой Drugslib.com. Информация, содержащаяся в настоящем документе, не предназначена для охвата всех возможных вариантов использования, направлений, мер предосторожности, предупреждений, взаимодействия лекарств, аллергических реакций или побочных эффектов. Если у вас есть вопросы о лекарствах, которые вы принимаете, проконсультируйтесь со своим врачом, медсестрой или фармацевтом.

    Популярные ключевые слова