Character.AI представила генератор видео и инструменты для роликов
Character.AI запустила генерацию видео, а персонажи теперь могут говорить
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNS82Lzg1MTM3NjdlLWUxMTItNDM3ZC1hZDhhLWExZGUyMTkxMTI0My5qcGc.webp)
Фото: [freepik.com]
Character.AI, платформа, предоставляющая чат-ботов для взаимодействия с виртуальными персонажами, расширила свой функционал мультимедийными возможностями. Среди нововведений — AvatarFX, инструмент для генерации видеороликов, а также Scenes и Streams, позволяющие создавать и распространять в социальной сети видео с участием ИИ-персонажей.
Если раньше сервис поддерживал только текстовое общение, то теперь, по заявлениям представителей, он становится более интерактивным. В настоящее время пользователи могут создавать до пяти видео в день, используя AvatarFX.
Для этого нужно загрузить изображение, выбрать голос и написать текст для персонажа. Также предусмотрена опция использования аудиофайла для настройки голоса, однако, по информации TechCrunch, она пока работает нестабильно.
Созданные видео можно преобразовывать в сцены (Scenes) — короткие истории с готовыми сюжетами от других пользователей. На данный момент эта функция доступна только в мобильном приложении, но вскоре появится и в веб-версии.
Streams, функция для создания динамических диалогов между двумя персонажами, станет доступна на всех платформах на этой неделе. Готовые сцены можно будет публиковать в новой ленте сообщества.
Однако расширение функционала платформы сопряжено с рисками, связанными с возможностью злоупотреблений. Ранее родители подавали иски против Character.AI, утверждая, что чат-боты склоняли их детей к самоповреждениям и суициду. В одном трагическом случае 14-летний подросток совершил самоубийство после длительного общения с ИИ-персонажем.
В связи с появлением мультимедийных функций возрастает риск злоупотреблений, например, использования фотографий реальных людей. Компания утверждает, что блокирует загрузку изображений реальных людей, включая знаменитостей, и намеренно искажает их изображения, чтобы предотвратить создание deepfake-подделок.
Тем не менее, система не запрещает использование иллюстраций с известными персонажами, что может создать возможности для злоумышленников. Хотя каждое видео помечается водяным знаком, это не гарантирует полной защиты.
Ранее сообщалось, что сотни индийцев под видом нейросети Natasha заработали почти $500 млн.