Эксперт по информбезопасности пояснил риски использования нейросетей

Эксперт Лукацкий назвал ключевую угрозу ИИ

Безопасность

Фото: [ru.freepik.com]

С повсеместным внедрением нейросетей растут и риски их использования, предупредил эксперт по информационной безопасности Алексей Лукацкий в эфире радио Sputnik. Одной из ключевых угроз он назвал склонность ИИ к «галлюцинациям».

По его словам, это генерация нейросетью ложной или вымышленной информации, которую система преподносит как достоверную. Причина кроется в самой природе ИИ: нейросети статистически предсказывают следующие слова или решения, а не анализируют истинность данных. Как пояснил Лукацкий, ИИ старается угодить пользователю, что приводит к подмене точности желанием дать «удобный» ответ даже при отсутствии реальных знаний.

Эксперт подчеркнул, что главная проблема — некритичное доверие пользователей к результатам генерации. Чтобы минимизировать риски, он рекомендует всегда перепроверять данные от ИИ, особенно в медицине, юриспруденции и финансах, помнить, что нейросети не обладают здравым смыслом, а их «уверенность» в ответах — лишь имитация, и, наконец, использовать ИИ как инструмент для идей, но не как источник истины.

По его мнению, галлюцинации — системная проблема ИИ, а не баг. Без осознания этого любое внедрение нейросетей становится игрой в русскую рулетку.

Ранее сообщалось, что топ-менеджеры увольняются из ИИ-компаний в страхе за будущее.