Доверие ИИ может стоить здоровья: половина советов — с ошибками

British Medical Journal: ChatGPT и аналоги дают ошибочные советы по здоровью

Интересное

Фото: [«Подмосковье сегодня»/Сгенерировано нейросетью]

Популярные ИИ-чат-боты, включая ChatGPT, Gemini и Grok, могут регулярно давать опасные медицинские советы, пишет Daily Mail со ссылкой на исследование в British Medical Journal. Ученые предупреждают: примерно половина ответов таких систем содержит ошибки или вводящую в заблуждение информацию.

Команда исследователей протестировала пять популярных моделей, задав им 250 вопросов о раке, вакцинах, питании и спортивных добавках. Оказалось, что около 20% ответов были «крайне спорными», а еще треть — частично некорректными.

«По умолчанию чат-боты не способны полноценно оценивать доказательства и делать этические выводы. При этом модели часто подстраиваются под ожидания пользователя, а не под научные факты», — отмечают авторы исследования.

Особенно много ошибок возникало при открытых вопросах вроде выбора стероидов или диет. Кроме того, ссылки на источники нередко оказывались неполными или даже вымышленными.

Эксперты подчеркивают, что при росте популярности ИИ необходимы регулирование и обучение пользователей, чтобы такие технологии помогали, а не вредили здоровью.