Болтун — находка для ChatGPT: российские офисы добровольно сдают тайны ИИ

Эксперт Мясоедов: промпт для нейросети может выдать компанию и ее тайны

Общество

Фото: [Подмосковье сегодня/сгенерировано нейросетью]

Российский бизнес столкнулся с новой угрозой, которая маскируется под рабочий инструмент. За последний год объем конфиденциальных корпоративных данных, которые сотрудники отправляют в публичные нейросети, вырос в 30 раз. Интернет-издание «Ямал-медиа» выяснило, почему желание работать чаще оборачивается главной угрозой безопасности.

Каждый пятый работник признается, что делился с искусственным интеллектом служебной информацией. Программисты загружают в ChatGPT фрагменты кода и ключи доступа, бухгалтеры — финансовые отчеты, юристы — договоры, маркетологи — базы клиентов и стратегии продвижения. Ирония в том, что специалисты IT-сферы, которые обязаны понимать риски лучше других, нарушают правила чаще коллег. Почти половина всех утечек проходит через ChatGPT.

В основе проблемы, как выяснили эксперты, лежит не злой умысел, а желание работать быстрее. Сотрудники не видят угрозы в загрузке коммерческой стратегии или служебной презентации. Они ошибочно полагают, что их запрос остается приватным, и не задумываются, что данные уходят за корпоративный периметр безвозвратно.

Попав в открытый ИИ-сервис, информация начинает жить собственной жизнью. По условиям использования большинства публичных нейросетей, запросы и файлы могут применяться для дообучения моделей. Уникальный код, формулировки договоров, структура отчетов становятся частью знаний искусственного интеллекта. Удалить эти данные оттуда практически невозможно. Более того, они могут всплыть в ответах другим пользователям. Или их могут извлечь киберпреступники с помощью техник «инъекций промптов» — специально составленных запросов, обходящих этические ограничения.

Эксперт по информационным технологиям Павел Мясоедов пояснил: иногда такие утечки случаются, и защититься от них сложно. Промпт составляется обезличенно, но все вводные данные при этом указывают на ту или иную организацию.

Реальные примеры уже есть. В 2023 году инженеры Samsung трижды загружали в ChatGPT секретный исходный код и протоколы совещаний, что привело к временному запрету ИИ в компании. А в 2025 году исполняющий обязанности главы американского агентства по кибербезопасности выложил в публичный чат-бот служебные документы.

Казалось бы, решение лежит на поверхности — заблокировать доступ. Но эксперты уверены: полный запрет ИИ — тупиковый путь. Генеративные нейросети уже стали таким же рабочим инструментом, как когда-то интернет или Excel. Сотрудники не откажутся от них, а начнут использовать личные устройства и публичные сети, создавая неконтролируемую «теневую IT-инфраструктуру».

Руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник отметила, что ФСТЭК пока рекомендует госорганам блокировать обращение к нейросетям, но компании уже задумываются о более гибких политиках. Блокировка — кардинальное решение, но бизнес сейчас решает множество задач по сокращению затрат и ищет компромиссы.

Специалисты по кибербезопасности сходятся во мнении, что необходима система из трех элементов. Первый — четкие внутренние регламенты и регулярное обучение сотрудников на реальных кейсах. Второй — технический контроль с помощью DLP-систем нового поколения, которые анализируют трафик и блокируют отправку секретных данных в нейросети. Третий — создание безопасной альтернативы. Это могут быть отечественные сервисы вроде GigaChat или YaLM, работающие по 152-ФЗ, либо полностью локальные корпоративные модели. Последний вариант дорог, но дает полный контроль над данными.

Эксперт по информационным технологиям Павел Мясоедов подтвердил: данные, попавшие в большую языковую модель, остаются в ней навсегда. Теоретически извлечь их возможно, но на практике это нереализуемо. По его словам, утекает все — от персональных данных до информации для служебного пользования, потому что сотрудники загружают целые документы. Люди решают узкую задачу, а нейросети передается весь массив информации. Основными получателями становятся операторы моделей — OpenAI, «Яндекс» и другие, которые могут использовать сведения в маркетинговых целях или для обучения алгоритмов.

Пока компании несут преимущественно репутационные потери. Доказать, что утечка произошла именно через нейросеть, почти невозможно. Однако эксперты прогнозируют, что финансовые последствия не за горами. Правовая база для ИИ в России только формируется.

В августе 2025 года Минцифры представило проект Концепции регулирования искусственного интеллекта до 2030 года с «гибридным подходом» и расширением экспериментальных правовых режимов. Но главный вопрос — кто ответит, если действия ИИ причинят ущерб, — пока остается открытым.

Ранее сообщалось, что лечение по советам из интернета и через нейросети беспокоит врачей.