Кто рисует движение точнее: бесплатный китаец или коммерческий монстр?
Представьте: у вас есть статичная картинка. Вы хотите, чтобы облако на ней плыло вправо, а птица летела по диагонали. Не просто "оживить" картинку, а контролировать каждое движение. До января 2026 года это было либо черной магией, либо требовало часов ручной работы в After Effects.
Теперь есть два претендента: Kling 1.5 Pro от китайского гиганта и свежий open-source проект Wan-Move от Tongyi Lab. Первый стоит денег и работает в облаке. Второй - бесплатный, с открытым кодом под Apache 2.0, и запускается локально. Кто реально контролирует движение, а кто просто делает красиво?
Motion Brush: когда вы дирижируете пикселями
Техническая магия Wan-Move называется "редактирование condition features без изменения архитектуры". Звучит сложно, но работает просто: вы рисуете кистью траектории движения прямо на картинке. Хотите, чтобы рука поднялась? Рисуете стрелку от кисти вверх. Нужно, чтобы машина поехала влево? Еще одна стрелка.
Вот что получается на практике:
- Загружаете изображение 480p (да, разрешение скромное, но зато работает на потребительских видеокартах)
- Рисуете точки или области с векторами движения
- Модель генерирует 2-4 секундное видео, где объекты движутся по вашим указаниям
- Можно комбинировать несколько движений в одной сцене
Kling 1.5 Pro: мощно, но слепо
А теперь про коммерческого конкурента. Kling 1.5 Pro (актуальная версия на январь 2026) - это монстр от китайской компании. Он генерирует видео потрясающего качества, с плавным движением и детализацией, которая заставляет плакать старые Stable Video Diffusion модели.
Но есть проблема: контроль движения. Вернее, его почти нет. Вы даете промпт типа "человек машет рукой", и модель решает сама, как именно он будет махать. Левая рука или правая? Быстро или медленно? Снизу вверх или из стороны в сторону? Это лотерея.
Kling 1.5 Pro выигрывает в качестве картинки, но проигрывает в точности контроля. Это как разница между гениальным художником, который рисует что хочет, и послушным ассистентом, который выполняет конкретные указания.
Установка Wan-Move: 15 минут до контроля движения
Самое приятное в Wan-Move - он действительно работает локально. Не нужно платить за API, не нужно ждать очередь в облачном сервисе. Вот минимальный набор для старта:
1 Железо и софт
Видеокарта с 8+ GB VRAM (RTX 3070 или новее). Python 3.10. CUDA 12.1 если у вас NVIDIA. И да, работает на Linux и Windows - редкая вежливость от китайского open-source проекта.
2 Качаем веса
Две основных точки:
- HuggingFace: официальный репозиторий с моделью Wan-I2V-14B и Motion Brush модулем
- ModelScope: альтернатива для тех, у кого проблемы с доступом к HuggingFace
Общий вес - около 15 GB. Не самый маленький, но и не гигант по меркам 2026 года.
3 Запускаем Gradio интерфейс
Разработчики сделали веб-интерфейс на Gradio. После установки запускаете один Python скрипт, открываете localhost:7860 в браузере - и вот он, Motion Brush прямо в браузере.
Не пытайтесь запускать Wan-Move на CPU. Это не Reko для суммаризации YouTube. Здесь нужна видеокарта.
Чего ждать на практике: трезвые ожидания
Wan-Move не создает голливудские спецэффекты. Разрешение 480p - это не 4K. Длительность 2-4 секунды - не минутный ролик. Но зато:
| Задача | Wan-Move | Kling 1.5 Pro |
|---|---|---|
| Контроль направления движения | Точно по векторам | Примерно по промпту |
| Качество изображения | 480p, иногда артефакты | HD, кинематографично |
| Стоимость | Бесплатно (Apache 2.0) | Подписка или pay-per-use |
| Конфиденциальность | Локально, данные никуда не уходят | Облако, непонятно кто смотрит ваши картинки |
Кому нужен Wan-Move прямо сейчас?
Если вы делаете контент для соцсетей, где 480p - это норма, а не приговор. Если вам нужно быстро протестировать идею движения перед тем, как отдавать работу motion-дизайнеру. Если вы разработчик и хотите встроить генерацию видео с контролем в свой продукт.
Особенно Wan-Move ценен для образовательных проектов. Представьте: учебник по физике, где вы рисуете векторы силы, а модель показывает, как объект будет двигаться под их действием. Или курс анимации, где студенты сразу видят результат своих "режиссерских" указаний.
А что с мультимодальностью?
Здесь Wan-Move скромничает. Это чисто image-to-video модель. Никакого текста в промпте, никакого аудио. Хотите описать сцену словами? Сначала сгенерируйте картинку в другом инструменте, потом загружайте в Wan-Move.
Для сравнения: мультимодальные модели вроде Qwen3-VL понимают и текст, и изображения, но не умеют генерировать видео. Каждый инструмент - под свою задачу.
Что будет дальше? Прогноз на 2026
Метод редактирования condition features - это только начало. В 2026 году мы увидим:
- Более высокое разрешение (скорее всего, 720p к середине года)
- Интеграцию с текстовыми промптами - сначала опишите сцену, потом нарисуйте движение
- Поддержку более длинных видео через временной контроль
- Портирование метода на другие video generation модели
Главный вопрос: останется ли Kling 1.5 Pro платным, когда open-source альтернативы догонят его по качеству? История с Stable Diffusion против Midjourney повторяется, но теперь в видео.
Пока что выбор прост: хотите кинематографичное качество без контроля - Kling 1.5 Pro. Нужен точный контроль над движением и готовы мириться с 480p - Wan-Move. Но через полгода, возможно, придется переписывать эту статью.
Не ждите, что Wan-Move заменит профессиональные инструменты для анимации. Это прототип, демонстрирующий принципиально новый подход к контролю движения. Но иногда прототип сегодня важнее полированного продукта завтра.