24.10.2024
Фото: runwayml.com
Текст: Mustafin Magazine
Стартап Runway представил ИИ-модель для захвата мимики и движений лица
Новая технология разработана для создания "живых" анимаций и видео без использования 3D-скелетов и костюмов для захвата движений
Американский стартап Runway анонсировал запуск функцию Act-One. Она может создавать реалистичные анимации с помощью искусственного интеллекта. За основу ИИ-модель берет видео, снятые на любую видеокамеру, включая камеру смартфона.
Act-One переносит мимику и выражения лица актеров из видеоматериалов на лицо сгенерированных ИИ-персонажей. Runway утверждает, что эту функцию можно применять к широкому спектру референсных изображений, создавая как анимации, так и более реалистичные сцены в жанре игрового кино.
Теперь диалоговые драматические сцены, как в кино, можно генерировать с использованием только одного актера, сидящего перед камерой. Он, кстати, может зачитывать реплики и исполнять роль нескольких персонажей одновременно.
Бесплатный инструмент постепенно становится доступным для всех пользователей Runway. Однако сейчас доступ к функции Act-One будет ограничен пользователями модели генерации видео Gen-3 Alpha.
Модель Gen-3 Alpha, представленная ранее в этом году, позволяет создавать ИИ-видео на основе текстовых описаний, изображений и других видео материалов.
Читайте также
Люди и цифры: титул Данилиной, летний кинотеатр, рекорд Роналду
За сколько продадут костюм Человека-паука и когда выйдет “Бегущий по лезвию 2099”
25.08.2025
Умная одежда: как смарт-текстиль входит в моду
03.09.2025