«ИИ под колпаком». В России ужесточат правила обучения нейросетей
Минцифры ужесточило контроль над нейросетями
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80L2lzdG9jay0yMjA3MTQxOTg2LmpwZw.webp)
Фото: [istockphoto.com/tadamichi]
В проект федерального закона, регулирующего сферу искусственного интеллекта, добавлены положения, которые детализируют порядок использования и обучения ИИ-систем. Как сообщает «Коммерсантъ», документ претерпел существенные изменения.
Новая редакция ужесточает ответственность держателей нейросетей за неправомерное применение их технологий, а также вводит обязательные требования по маркировке контента, сгенерированного с помощью ИИ.
В частности, перечень обязанностей владельцев сервисов на базе искусственного интеллекта расширен: теперь они должны активнее противодействовать незаконному использованию своих инструментов. Компании обяжут ограничивать возможности генерации материалов, которые нарушают действующее законодательство. Помимо этого, IT-платформам предпишут снабжать специальными метками любые данные, созданные при участии ИИ.
Кроме того, законодатели уточнили нормы, касающиеся результатов интеллектуальной деятельности и процесса обучения нейросетей. В итоговой версии текста прописано, что пользовательские соглашения в обязательном порядке должны включать условия об уведомлениях, доступе, выгрузке и передаче прав на контент, который был произведен с использованием ИИ. Также допускается возможность задействования отдельных объектов авторского права.
Участники рынка высказывают опасения: по их мнению, нововведения могут серьезно осложнить работу малого бизнеса, который активно интегрирует технологии искусственного интеллекта.
В Министерстве цифрового развития, связи и массовых коммуникаций заявили, что работа над законопроектом продолжается совместно с отраслевыми специалистами и профильными ведомствами.
Ранее сообщалось о том, что нейросети начали обманывать людей, чтобы защитить алгоритмы «коллег».