Tencent представила HunyuanVideo 1.5 — новую открытую модель для генерации видео, которая работает всего с 8,3 млрд параметров и запускается на обычной видеокарте. Компания утверждает, что это теперь самое мощное open-source решение в своей категории — и по качеству, и по доступности.

Модель уже опубликована на Hugging Face: доступны версии для генерации из текста и по изображению, варианты 480p/720p и отдельные модели для разрешения до 1080p. Работает на потребительских GPU с примерно 14 ГБ видеопамяти. Подробности в материале Postium.

Реклама. Erid 2VtzqwMXQT6. ООО «Клик.ру», ИНН 7743771327. Промопульт
Реклама. Erid 2Vtzqx3YjaU. ООО «Клик.ру», ИНН 7743771327. Промопульт

Читайте также: 5 нейросетей для генерации видео бесплатно

Что умеет HunyuanVideo 1.5 и как работает

В основе HunyuanVideo 1.5 — архитектура Diffusion Transformer (DiT), которая генерирует видео в сжатом латентном пространстве. Специальный 3D VAE уменьшает объём данных, а новый механизм внимания SSTA ускоряет расчёты почти вдвое на длинных роликах.

Базовая модель выдаёт 5–10 секунд видео в 480p или 720p, после чего подключается отдельный супер-разрешающий модуль, который поднимает результат до 1080p и убирает артефакты. Для улучшения качества запросов модель может автоматически переписывать промпты через внешнюю LLM.

Главное — модель стала заметно легче. При 8,3 млрд параметров она работает быстрее и требует меньше памяти. Её можно запускать на обычной видеокарте, а не на серверных GPU.

Ещё один слой — работа с промптами для генерации видео. В документации подчёркивается, что длинные, детальные запросы сильно повышают качество видео, для этого есть отдельный «Prompt Writing Handbook». Модель лучше справляется, когда ей заранее задают стиль, ракурс, движения камеры и поведение объектов — тогда сцена получается стабильнее и реалистичнее.

Ускорение внимания, встроенное супер-разрешение, набор дистиллированных и sparse-моделей и поддержка ComfyUI делают HunyuanVideo 1.5 не исследовательским прототипом, а полноценным рабочим инструментом.

Как пользоваться HunyuanVideo 1.5

Зайдите на страницу проекта на Hugging Face, скачайте нужные модели — версии для 480p/720p, режимы T2V/I2V и модули супер-разрешения. Затем установите окружение и зависимости из репозитория — этого достаточно, чтобы модель заработала локально.

Как пользоваться HunyuanVideo 1.5

Дальше можно запускать генерацию через стандартный скрипт: задать промпт, длительность и разрешение. А если не хочется работать с консолью, уже есть готовые графические решения — ComfyUI и LightX2V поддерживают HunyuanVideo 1.5 из коробки. Также, модель уже есть на плейграундах по типу fal.ai.

Почему это важно? HunyuanVideo 1.5 — большой шаг для открытых моделей. Она впервые сочетает приличное качество, HD-разрешение и возможность запуска «у себя дома».

Но важно понимать масштаб: это прорыв для open-source, а не прямая альтернатива Sora, Veo или Wan 2.5. Закрытые модели по-прежнему выигрывают в реалистичности движения, физике, длине сцен и стабильности. HunyuanVideo 1.5 решает другую задачу: делает видеогенерацию доступной для разработчиков, студий и энтузиастов без дорогого оборудования и облачных сервисов.

Напомню, Tencent развивает линейку Hunyuan уже несколько месяцев: от генерации изображений HunyuanImage 3.0 до видео-моделей. В версии 1.5 компания делает ставку на эффективность, открытость и совместимость с популярными инструментами из сообщества.

Итог: HunyuanVideo 1.5 стала быстрее, легче, доступнее и качественнее. Теперь это не экспериментальная игрушка, а реально пригодный инструмент, который работает на обычном железе и выдаёт хорошие HD-ролики.

Ранее на платформе Dreamina AI появилась возможность генерировать видео до 54 секунд по 10 кадрам.

⭐ Тестим нейросети каждый день, а то, что реально работает — сливаем в Telegram-канал: «Промты — и точка».

⭐ Тестим нейросети каждый день, а то, что реально работает — сливаем в Telegram-канал: «Промты — и точка».

Комментарии: Вышла HunyuanVideo 1.5 — новая открытая ИИ-модель для генерации видео
⚡ В тренде
Некоторые аналитики прогнозируют, что нейросети скоро заберут работу у специалистов разных профессий: копирайтеров, журналистов, иллюстраторов, дизайнеров. Произойдет ли это на самом деле – узнаем со временем. А сейчас есть реальные возможности заработать деньги на нейросетях без вложений. Расскажем, как получать доход с помощью нейронок. Собрали простые способы, которые можно освоить с нуля или адаптировать для […]
За последние годы в российском сегменте интернета изменился доступ к ряду зарубежных онлайн-сервисов. Некоторые платформы работают с ограничениями, часть сайтов и приложений заблокирована в России, а отдельные компании добровольно покинули рынок. Ниже — актуальный список изменений и блокировок, материал будет обновляться. Читайте также: Аналоги Телеграм и WhatsApp для звонков Что заблокировано в России? Полная блокировка […]
Разработчики Kling AI (Kuaishou) выпустили модель Avatar 2.0 — обновление инструмента для создания говорящих цифровых аватаров. Релиз состоялся в рамках продуктовой недели Omni Launch Week. Модель уже доступна в веб-версии Kling AI. Бесплатно доступно ограниченное количество кредитов, безлимит и более высокое качество — в платных тарифах. Postium собрал больше деталей. Читайте также: Нейросети для создания […]
Spotify выпустил Wrapped 2025 — ежегодный персональный отчёт по прослушиваниям, который стал крупнейшим по охвату за всю историю сервиса. За первые 24 часа рекап открыли более 200 млн раз по всему миру. Отчёт доступен всем пользователям с 3 декабря в мобильном приложении на iOS и Android. Postium собрал ключевые детали о новом Wrapped. Читайте также: […]
Многие пользователи ChatGPT оформляют подписку через виртуальные карты и сторонние сервисы и в итоге переплачивают из-за комиссий. Но сейчас есть способ получить 30 дней ChatGPT Plus бесплатно — без промокодов и серых схем. Функция встроена в сам сервис и доступна пользователям с активной подпиской. Я всё проверил, и на момент публикации способ реально рабочий. Инструкция […]
Блоги компаний
Новости
Свежие статьи