Команда Wan из Tongyi Lab (Alibaba) представила новую ИИ-модель для генерации анимации по картинке и видео — Wan2.2-Animate. Также представлены Qwen3-Omni и обновлённая Qwen-Edit-Images-2509.
Она умеет превращать статичные изображения в анимацию по образцу референс-видео и заменять персонажей прямо в готовых роликах. Важный момент: проект полностью открыт — доступны и код, и веса модели (Apache-2.0). Можно скачать и развернуть локально.
Читайте также: 5 лучших приложений для генерации видео
Что умеет нейросеть Wan 2.2-Animate
Новая ИИ-модель делает две вещи.
Ремейк с вами. Берёте любое видео с движениями или речью (например, танец из TikTok) — и модель «переснимает» его с вашим персонажем или картинкой. Этот режим называется анимация фото и работает на основе референса.
Замена в любом ролике. Хотите оказаться в «Матрице» или в бою из Mortal Kombat — загружаете нужный фрагмент, и модель подставляет вас туда. Чтобы результат выглядел естественно, используется Relighting LoRA, которая подгоняет свет и цветовую гамму сцены.
То есть это инструмент не для «рисования всего с нуля», а именно для вживления вас или вашего персонажа в готовое видео.
Чем модель отличается от аналогичных решений? Ранее открытые инструменты для анимации и замены страдали от неестественной мимики, искажённого света и цвета — из-за этого персонаж «выпадал» из сцены, а авторам приходилось вручную дорабатывать видео.
Wan2.2-Animate решает эти проблемы: модель отдельно контролирует скелет и лицо, а при замене корректирует освещение, благодаря чему ролики выглядят реалистичнее и не требуют постобработки.
Это интересно: 25 нейросетей для генерации изображений
Как пользоваться Wan2.2-Animate и как создавать анимацию
Чтобы создать ИИ-анимацию с помощью нейросети Wan2.2-Animate-14B, переходим на Hugging Face. Там есть и примеры, и готовые кнопки для запуска.
1. Анимация фото
Загружаете своё изображение — это может быть портрет, селфи или фото за рабочим столом.

Ниже добавляете референс-видео — любое, где есть движения или эмоции. Например, момент из фильма, где герой эмоционально спорит или танцует.

Выбираете внизу «Mode — Wan2.2- animate-move» и жмёте «Generate Video». Модель «считает» движения и накладывает их на ваше фото. В итоге получится ролик, где ваш персонаж говорит и двигается как актёр из выбранного видео. Вот волк, который стал ведущим новостей:
2. Режим замены персонажа
Это вариант для тех, кто хочет оказаться в чужом ролике. Загружаете изображение персонажа или себя.
Добавляете готовое видео — например, танец Джокера на лестнице или тот самый кринжовый танец Питера Паркера.

Выбираете внизу «Mode — Wan2.2- animate-mix» и кликаете «Generate Video». Модель аккуратно заменяет героя в ролике на вас. Чтобы всё выглядело естественно, используется Relighting LoRA — она подгоняет свет и цвета под сцену. Получается эффект, будто вы сами снялись в этом эпизоде.
Что это значит для индустрии
Самое главное — Wan2.2-Animate бесплатна и в открытом доступе. Можно скачать веса и код, запустить у себя на компьютере или сразу протестировать в демо. Никаких подписок, лимитов и скрытых условий — лицензия Apache-2.0 разрешает использовать модель даже в коммерческих проектах.
Для сравнения:
- Runway Gen-3 — от $12 в месяц, но минуты видео быстро заканчиваются.
- Pika Labs — от $8 в месяц, расширенные тарифы $28 и $76.
- Higgsfield— тарифы начинаются от $9 и доходят до $149 в месяц.
По сути, Wan2.2-Animate даёт функционал уровня дорогих сервисов, но в формате open source. Это редкий случай, когда технология, которая могла бы стоить десятки долларов в месяц, становится доступна любому — от энтузиаста до профессионала.
Где можно использовать:
- ИИ-креаторы. Оживлять иллюстрации, делать VTuber-ролики, генерировать рекламные видео без актёров.
- Блогеры. Записывать сценки, пародии, вставлять себя в фильмы или мемные моменты.
- Студии. Подменять персонажей или брендинг, локализовать видео без повторных съёмок.
- Разработчики. На базе модели можно собрать сервис или Telegram-бота.
- Образование. Создание обучающих роликов, симуляций, цифровых преподавателей.
- Бизнес. Генерация корпоративных видео, виртуальных аватаров для онлайн-поддержки.
Коротко о главном
Короче — юзаем, тестируем, всё бесплатно. Wan2.2 уже не просто одна модель, а целая экосистема: летом добавили интеграции с ComfyUI и Diffusers, в августе вышла версия для генерации видео по голосу, теперь ещё и инструмент для анимации и замены персонажей. Alibaba реально собирает полный набор для работы с видео — от генерации до монтажа, и всё в открытом доступе.
Если нужна инструкция, как развернуть модель локально, на своём компьютере — пишите запрос в комментариях.
Больше полезных гайдов по нейросетям:
Нужна инструкция, как развернуть модель локально, на своем компьютере. Большая просьба прислать.
Принято, выпустим статью на сайте.
Очень интересно, а есть инструкция как развернуть на локалке ее?