Эксперт по информбезопасности пояснил риски использования нейросетей
Эксперт Лукацкий назвал ключевую угрозу ИИ
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS83L3JvYm90LXJ1a29wb3phdGllLWNlbG92ZWNlc2tpaS1mb24tZnV0dXJpc3RpY2Vza2lpLWNpZnJvdm9pLXZlay5qcGc.webp)
Фото: [ru.freepik.com]
С повсеместным внедрением нейросетей растут и риски их использования, предупредил эксперт по информационной безопасности Алексей Лукацкий в эфире радио Sputnik. Одной из ключевых угроз он назвал склонность ИИ к «галлюцинациям».
По его словам, это генерация нейросетью ложной или вымышленной информации, которую система преподносит как достоверную. Причина кроется в самой природе ИИ: нейросети статистически предсказывают следующие слова или решения, а не анализируют истинность данных. Как пояснил Лукацкий, ИИ старается угодить пользователю, что приводит к подмене точности желанием дать «удобный» ответ даже при отсутствии реальных знаний.
Эксперт подчеркнул, что главная проблема — некритичное доверие пользователей к результатам генерации. Чтобы минимизировать риски, он рекомендует всегда перепроверять данные от ИИ, особенно в медицине, юриспруденции и финансах, помнить, что нейросети не обладают здравым смыслом, а их «уверенность» в ответах — лишь имитация, и, наконец, использовать ИИ как инструмент для идей, но не как источник истины.
По его мнению, галлюцинации — системная проблема ИИ, а не баг. Без осознания этого любое внедрение нейросетей становится игрой в русскую рулетку.
Ранее сообщалось, что топ-менеджеры увольняются из ИИ-компаний в страхе за будущее.