Автоматический монтаж видео через AI: Dive и MCP для вырезки фрагментов | AiManual
AiManual Logo Ai / Manual.
08 Янв 2026 Гайд

Автоматический монтаж видео по промпту: как с помощью Dive и MCP вырезать все моменты с ключевым словом

Пошаговое руководство по автоматическому монтажу видео с помощью Dive и MCP клиентов. Вырезаем фрагменты по ключевым словам без ручной работы.

Когда ручной монтаж превращается в кошмар

Представьте ситуацию: у вас есть пятичасовой стрим или лекция. Вам нужно вырезать все моменты, где спикер говорит "кстати" или "значит". Или собрать все фрагменты с упоминанием конкретного термина. Сидеть и вручную искать по таймлайну - это гарантированная потеря трёх часов жизни и нервных клеток.

Традиционные видеоредакторы не умеют работать с контентом по смыслу. Они оперируют временными метками, кадрами, эффектами. Но не понимают, что происходит в аудиодорожке. И вот здесь на сцену выходит связка Dive + MCP - инструмент, который превращает промпт в готовый видеомонтаж.

Dive - это платформа для запуска AI-агентов локально. MCP (Model Context Protocol) - протокол, позволяющий LLM взаимодействовать с внешними инструментами вроде yt-dlp или ffmpeg. Вместе они создают конвейер: от промпта до готового видеофайла.

Почему именно эта связка, а не просто скрипт?

Можно написать Python-скрипт, который через Whisper транскрибирует видео, ищет ключевые слова и вырезает фрагменты через ffmpeg. Но тогда вы становитесь заложником своего кода. Изменились требования - переписывайте скрипт. Появились новые форматы видео - дописывайте обработчики.

С Dive и MCP вы получаете гибкую систему, где LLM сама решает, какие инструменты использовать и в какой последовательности. Вы описываете задачу на естественном языке, а система строит цепочку действий. Это принципиально другой уровень абстракции.

Важный момент: Dive не транскрибирует видео сам по себе. Он использует MCP-клиенты для работы с внешними инструментами. Без правильно настроенных клиентов система будет бесполезна.

Собираем рабочий конвейер: от промпта до результата

1Готовим инструменты

Первое, что нужно понять: Dive - это не волшебная кнопка "сделать монтаж". Это платформа, на которой работают агенты. Для обработки видео нам понадобятся три ключевых компонента:

  • Сам Dive (устанавливается через pip или docker)
  • MCP-клиент для работы с YouTube (yt-dlp-mcp)
  • MCP-клиент для обработки видео (ffmpeg-mcp-lite)
  • Локальная или облачная LLM с поддержкой инструментов

Если вы уже работали с локальным YouTube-суммаризатором Reko, то часть инфраструктуры у вас уже есть. Тот же принцип: локальная обработка медиа через AI.

2Настраиваем MCP-клиенты

Здесь начинается самое интересное (и потенциально болезненное). MCP-клиенты - это не просто библиотеки Python. Это серверы, которые общаются с Dive по специфическому протоколу.

Типичная ошибка новичков: установить клиенты и ждать, что они заработают сами. Нет. Нужно запустить их как серверы, а потом указать Dive, где они слушают.

💡
Если настройка MCP вызывает проблемы, посмотрите статью про MCP Doctor - инструмент для автоматической отладки конфигов.

3Пишем промпт, который работает

Вот где большинство людей спотыкается. Нельзя написать "сделай монтаж видео". Нужно детально описать процесс:

Плохой промпт: "Вырежи все моменты, где говорят про Python"

Хороший промпт: "Возьми видео по ссылке [URL]. Скачай его через yt-dlp. Распознай речь с таймкодами. Найди все фрагменты, где в транскрипте встречается слово 'Python' или 'питон'. Для каждого фрагмента возьми 5 секунд до и 10 секунд после упоминания. Собери все фрагменты в один файл MP4."

Разница колоссальная. В первом случае LLM не поймёт, что значит "моменты". Во втором - получает чёткий алгоритм действий.

4Запускаем и наблюдаем за магией

Когда всё настроено правильно, процесс выглядит так:

  1. Вы даёте промпт Dive
  2. LLM анализирует задачу и понимает, что нужны: скачивание видео, транскрипция, поиск по тексту, нарезка
  3. Агент последовательно вызывает инструменты через MCP
  4. yt-dlp-mcp скачивает видео
  5. Whisper (или другой транскрибер) создаёт текст с таймкодами
  6. LLM анализирует транскрипт и находит нужные фрагменты
  7. ffmpeg-mcp-lite вырезает и склеивает фрагменты
  8. Вы получаете готовый файл

Где система даёт сбой (и как этого избежать)

Идеального инструмента не существует. Вот основные проблемы, с которыми столкнётесь:

ПроблемаПричинаРешение
LLM не понимает, какие инструменты использоватьСлишком общий промптДетализируйте шаги явно
Видео скачивается, но не обрабатываетсяMCP-клиенты не запущены или не видят друг другаПроверьте логи и конфигурацию соединений
Транскрипция занимает вечностьИспользуется тяжёлая модель Whisper-largeПерейдите на Whisper-tiny или distil-whisper
Вырезанные фрагменты начинаются/заканчиваются некорректноТаймкоды транскрипции неточныеДобавляйте буферные секунды до и после

Самая частая ошибка - ожидание, что система будет работать из коробки. Нет. Это набор инструментов, которые нужно правильно соединить. Как в локальном RAG для видео, где каждый компонент требует точной настройки.

Продвинутые сценарии: что ещё можно делать

Базовая вырезка по ключевым словам - это только начало. Вот что становится возможным с такой системой:

  • Автоматическое создание тизеров - находить самые эмоциональные моменты по тону голоса
  • Сборка тематических подборок - из множества видео по одной теме
  • Удаление пауз и слов-паразитов - для чистого контента
  • Создание субтитров с выделением ключевых терминов - как в профессиональных курсах
  • Автоматический монтаж интервью - оставлять только ответы на вопросы

Представьте: вы запускаете процесс на плейлист из 50 лекций. Система самостоятельно скачивает каждую, анализирует, вырезает фрагменты про определённую тему и собирает часовой дайджест. Вручную это заняло бы недели.

💡
Для обработки плейлистов посмотрите статью про настройку Reko для автоматической обработки YouTube-плейлистов. Принципы похожи, но реализация через MCP даёт больше гибкости.

Стоит ли игра свеч?

Честный ответ: зависит от объёма работы. Если вам нужно обработать 2-3 видео раз в месяц, возможно, проще сделать это вручную. Настройка системы займёт несколько часов.

Но если вы:

  • Регулярно монтируете контент
  • Работаете с большими архивами видео
  • Хотите автоматизировать рутинные задачи
  • Любите экспериментировать с AI-инструментами

...тогда инвестиция времени окупится очень быстро. Особенно если комбинировать эту систему с другими подходами, например, с автоматизацией через Claude для сложных задач.

Что будет дальше с автоматическим монтажом

Нынешняя система - это первый шаг. Скоро появятся агенты, которые не просто вырезают фрагменты по ключевым словам, а понимают контекст. Например, смогут собрать "историю развития персонажа" из сериала или создать монтаж всех смешных моментов, основываясь на аудитории (смех на фоне).

Главный барьер сегодня - качество транскрипции и понимание контекста LLM. Но модели становятся лучше с каждым месяцем. То, что сегодня требует ручной проверки, завтра будет работать автономно.

Мой прогноз: через год автоматический монтаж по промпту станет таким же обычным делом, как сегодня поиск в Google. Вы просто скажете "собери все моменты, где эксперт критикует блокчейн, но добавь контекст его предыдущих высказываний", и получите готовое видео.

Начинайте экспериментировать сейчас. Потому что когда эта технология станет мейнстримом, те, кто уже разобрался с Dive и MCP, будут иметь огромное преимущество.