Эксперт по цифровой экономике объяснил преимущества и опасность дипфейков
Фото: [Александр Гальперин/РИА Новости]
В сети существуют платные сервисы, где нейросеть способна сделать дипфейк на любого человека. Достаточно просто загрузить в нее нужные данные. Существуют и дипфейки, которые копируют голос человека. Что в совокупности с изображением может быть очень опасно.
Эксперт цифровой экономики Рустам Рафиков в интервью газете «Вечерняя Москва» объяснил, что при создании такого видео нарушаются права на использование изображения человека.
Дипфейки могут использоваться не только в кино и рекламе, но и в политических целях. Например, когда от лица главы государства или другого политика делают громкие заявления. И причем люди, которые никогда не сталкивались с дипфейками, даже не поймут, что что-то не так.
«Это может привести к тому, что начнут распространяться фейковые новости. А еще дипфейки используют в мошеннических целях, чтобы похитить деньги с банковских счетов», - уточнил эксперт.
Другая опасность – как использовать лица умерших граждан, не нарушая права наследников? В целом пока работа с искусственным интеллектом регулируются только в экспериментальном режиме, подчеркнул Рафиков.