Искусственный интеллект выбрал ядерный удар вместо дипломатии: шокирующие результаты симуляции Пентагона
Исследование выявило склонность ИИ к ядерной эскалации в конфликтах
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS85LzQzOTE0Nzk0NzQ0LWM3ODA4ZjhhNmEtYi0xLmpwZw.webp)
Фото: [www.flickr.com]
Популярные модели искусственного интеллекта в кризисных симуляциях последовательно выбирали эскалацию конфликта вплоть до применения ядерного оружия, полностью игнорируя дипломатические пути. К такому выводу пришли американские исследователи. Об этом сообщает Politico.
Эксперимент, имитирующий реальные геополитические кризисы, продемонстрировал тревожную тенденцию. Языковые модели, включая GPT-4, в условиях, схожих с украинским конфликтом или гипотетическим столкновением США и Китая, проявляли агрессию. Вместо поиска компромисса алгоритмы предпочитали силовые сценарии, что ставит под вопрос их потенциальное использование в стратегическом планировании.
Эксперты отмечают, что ИИ демонстрирует понимание логики эскалации, но практически не видит возможностей для деэскалации. Точные причины такого поведения пока не ясны, однако это не мешает Пентагону, по мнению аналитиков, рассматривать возможность создания системы ядерного сдерживания на основе искусственного интеллекта. Это превращает сюжеты фантастических антиутопий во все более осязаемую реальность, требующую строгого контроля.
Искусственный интеллект, в отличие от человека, лишен моральных ориентиров и исторического контекста, что может объяснять его склонность к максимально «прямому» и разрушительному решению сложных проблем.
Ранее сообщалось о том, что слова ИИ, лабубу и сигма вошли в топ-40 слов 2025 года.