Опасность ИИ сравнили с ядерной войной. Теперь ее обсуждают на уровне G7

Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества»

Эксклюзив
Подсказки

Фото: [freepik.com]

Больше 350 разработчиков и исследователей искусственного интеллекта подписались под открытым письмом, в котором социальные риски из-за развития ИИ приравнены к последствиям пандемии – и даже ядерной войны. 

Заявление состоит всего из одного предложения. Так разработчики хотят обратить как можно больше внимания к проблеме. Мы приводим текст заявления полностью.

«Снижение риска исчезновения человечества из-за (развития) искусственного интеллекта должно стать глобальным приоритетом – наряду с другими рисками, такими как пандемии и ядерная война», —

текст заявления

Среди главных опасностей искусственного интеллекта разработчики называют распространение ложной информации и потенциальная потеря миллионов рабочих мест. 

Также авторы письма не хотят сеять панику. Главная цель – добиться создания общественной дискуссии вокруг проблемы для поиска решений. 

Открытое письмо подписали знаковые фигуры индустрии: сооснователи самого популярного ИИ-бота ChatGPT Сэм Альтман и Илья Суцкевер, Билл Гейтс, руководители Skype, а также ученые.

Члены «Большой семерки» уже собираются подготовить законопроект, который будет призван регулировать сферу во избежание катастрофических последствий развития искусственного интеллекта.

Поделиться