Каждый десятый россиянин диагностирует болезни у ИИ: каким опасностям подвергают себя пациенты — история пугает

Эксклюзив
Интересное
istockphoto.com/fizkes

Фото: [istockphoto.com/fizkes]

Российские пользователи все чаще обращаются к нейросетям за советами по здоровью — от расшифровки анализов до попыток поставить себе диагноз. Но мировой опыт показывает: доверие к ИИ в медицине может обернуться трагедией. За последние годы нередки были случаи, когда чат-боты давали опасные рекомендации, усугубляли состояние пациентов или искажали данные о лечении. Насколько опасен ИИ — в материале интернет-издания «Подмосковье сегодня». 

Каждый 10-й россиянин ходит к ИИ-врачу

Согласно опросу «Росгосстрах», примерно каждый десятый житель России (10%) использует нейросети как инструмент для первичной самодиагностики, предпочитая онлайн-консультации визиту к врачу, передает ТАСС.

При этом 76% тех, кто обращался за советом к ИИ, получили от нейросети предположение о возможной онкологии. Такой ответ напугал 8% респондентов, еще 12% восприняли его как сигнал немедленно обратиться к специалисту. Около трети опрошенных отнеслись к подобным выводам недоверчиво, а 23% вовсе не придали им значения.

Исследование также показало, что результаты «диагностики» ИИ и выводы врачей нередко расходятся. Лишь у 22% участников опроса мнения полностью совпали, у 57% наблюдалось частичное соответствие, тогда как 21% получили в медицинском учреждении совершенно иной диагноз.

Токсичные «лекарства» от нейросети

В разных странах уже фиксировались случаи, когда советы искусственного интеллекта приводили к серьезным последствиям. Так, 60-летний мужчина, решив заменить обычную соль на «менее вредный аналог», обратился к ChatGPT. По словам пациента, нейросеть рекомендовала использовать бромид натрия — химическое соединение, токсичное при длительном употреблении. Мужчина добавлял его в пищу около трех месяцев, после чего оказался в больнице с тяжелым отравлением. У него развились галлюцинации, паранойя, нарушения обмена веществ — типичные симптомы бромизма. Медики стабилизировали его состояние только после интенсивной терапии и корректировки электролитов.

istockphoto.com/ZeynepKaya

Фото: [istockphoto.com/ZeynepKaya]

Позднее врачи попытались воспроизвести похожий запрос в чат-боте — и действительно получили ответы, где бромид упоминался как возможная альтернатива без указания на его токсичность. Это привело к обсуждению того, насколько ИИ способен оценивать риск и последствия предлагаемых советов.

Не менее тревожные результаты показало исследование в JAMA Oncology. Ученые проверили, как GPT-модели отвечают на вопросы о лечении онкологических заболеваний. В 12% случаев чат-бот давал рекомендации, не соответствующие клиническим стандартам. Ошибки касались схем терапии, выбора препаратов и описания побочных эффектов. Для пациентов, ищущих «быстрый совет» в Сети, такие ошибки могут иметь критические последствия.

Феномен «ИИ-психоза» и ложная уверенность

Помимо физических рисков, фиксируется влияние ИИ на психическое здоровье. Этот феномен получил условное название «ИИ-психоз». Люди, склонные к тревожности, паранойе или конспирологическому мышлению, нередко интерпретируют ответы чат-бота как подтверждение своих страхов. В США в период с марта по август 2025 года Федеральная торговая комиссия получила жалобы от пользователей, заявлявших, что ChatGPT «убедил их не принимать лекарства» или «отвергнуть помощь близких».

При этом ИИ не вызывает психоз напрямую, но может усиливать уже существующие симптомы, создавая ощущение, будто виртуальный собеседник разделяет тревожные убеждения пользователя.

istockphoto.com/Mindful Media

Фото: [istockphoto.com/Mindful Media]

Эксперимент с ИИ

Корреспондент интернет-издания «Подмосковье сегодня» обратился к ChatGPT, чтобы выяснить его работу в случае возникновения проблем со здоровьем. Запрос был следующим: «Болит сердце, что делать? Какие лекарства выпить?», в силу новых требований ИИ давал аккуратные ответы:

«Боль в области сердца может возникать как из-за сердечных причин [стенокардия, нарушения ритма, воспаление сердечной ткани], так и по вовсе не по сердечным причинам — например, из-за межреберной невралгии, остеохондроза, мышечного спазма, тревоги или проблем с желудком. Отличить это самостоятельно сложно, поэтому важно ориентироваться на характер боли и сопутствующие симптомы: если боль давящая, жгучая, длится больше 5-10 минут или сопровождается одышкой, холодным потом, слабостью или отдает в руку/челюсть, нужна срочная медицинская помощь», — говорится в ответе.

При этом чат-бот отказался давать рекомендации по лекарствам.

«Что касается лекарств, безопасно давать конкретные назначения невозможно: препараты “для сердца” могут быть опасны при неправильном применении. Лучше ограничиться тем, что не навредит: сесть, успокоиться, дышать ровно, измерить давление и пульс, а при ухудшении состояния — сразу вызывать скорую. Если есть лекарства, которые уже были назначены вашим врачом ранее, можно использовать только их и строго по инструкции», — ответил ИИ.

Ранее стало известно, станет ли ключевая ставка ниже уже 19 декабря.