Ваш агент работает на localhost? Пора вылезать из подвала
Вы провели недели, отлаживая агента на LangGraph. Он идеально отвечает на вашем ноутбуке. А теперь что? Копировать файлы на сервер через SCP и молиться, чтобы не сломалось? В 2026 году так не делают. Команда LangChain выкатила langgraph-cli – инструмент, который превращает вашего местного агента в продакшн-сервис за три команды.
Если вы до сих пор разворачиваете агентов вручную, вы тратите 80% времени на обвязку и 20% – на логику. С этим CLI пропорции меняются.
LangGraph Deploy CLI: не просто утилита, а ваш продакшн-инженер
Новый CLI – это не обертка вокруг Docker. Это полноценный фреймворк для управления жизненным циклом агентов. Он знает, как упаковать вашего LangGraph агента, создать Docker образ, отправить его в облако и подключить к LangSmith для observability. И все это – из коробки.
1Ставим через uvx – никакого пипа
Забудьте про pip install и виртуальные окружения. В 2026 все ставят через uvx – установщик, который не пачкает систему.
uvx install langgraph-cliПроверяем, что встало:
langgraph --version
# langgraph-cli/2.1.02Инициализируем проект деплоя
Переходим в папку с вашим агентом. У вас уже есть graph на LangGraph, правда? Если нет, сначала посмотрите как создавать серверless агентов.
cd ~/projects/my-super-agent
langgraph initCLI задаст несколько вопросов: имя сервиса, облачный провайдер, размер инстанса. Не переживайте – все можно поменять потом в langgraph.yaml.
Секрет: в langgraph.yaml можно указать переменные окружения для секретов (API ключи, пароли). CLI никогда не запишет их в логи или Docker образ.
3Тестовый запуск локально
Перед отправкой в облако проверьте, как агент будет работать в продакшн-среде:
langgraph serve --localЭта команда поднимет локальный сервер с вашим агентом, но с продакшн-конфигурацией. Если ваш агент использует сложные цепочки инструментов, сейчас самое время их проверить.
4Деплой одной командой
Вот момент истины. Запускаете деплой и идете пить кофе.
langgraph deploy --env prodЧто происходит под капотом:
1. CLI пакует весь ваш код в Docker образ (использует многодневные кэши, чтобы не скачивать пакеты каждый раз)
2. Загружает образ в container registry
3. Создает cloud-сервис с автоскейлингом
4. Настраивает балансировку нагрузки
5. Подключает агента к вашему аккаунту LangSmith для полного мониторинга
Внимание: если вы не настроили cloud credentials, CLI предложит сделать это сейчас. Поддерживает AWS, GCP и Azure. Для корпоративных пользователей, которые разворачивают через Google Cloud Marketplace, есть отдельная инструкция.
CI/CD пайплайн за 10 строк кода
Ручной деплой – для слабаков. Настройте автоматическое развертывание при пуше в main ветку.
Пример для GitHub Actions:
name: Deploy Agent
on:
push:
branches: [main]
jobs:
deploy:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- uses: astral-sh/uv-install-action@v1
- run: uvx install langgraph-cli
- run: langgraph deploy --env prod --auto-approve
env:
LANGSMITH_API_KEY: ${{ secrets.LANGSMITH_API_KEY }}
AWS_ACCESS_KEY_ID: ${{ secrets.AWS_ACCESS_KEY_ID }}Флаг --auto-approve отключает интерактивные вопросы. Идеально для CI/CD.
А что с альтернативами? Почему не просто Dockerfile?
Можно конечно написать Dockerfile на 50 строк, настроить nginx, сделать healthchecks, прикрутить метрики. Но зачем? LangGraph Deploy CLI делает это из коробки плюс:
| Задача | Ручной деплой | LangGraph Deploy CLI |
|---|---|---|
| Сборка Docker образа | 15-30 минут настройки | Автоматически, с кэшированием |
| Настройка observability | Отдельный проект на неделю | Интеграция с LangSmith за 2 минуты |
| Автоскейлинг | Сложная конфигурация в облаке | Флаг --min-instances 2 --max-instances 10 |
| Обновление без даунтайма | Blue-green deployment руками | Встроенный rolling update |
Есть и другие фреймворки вроде RLM-Toolkit, но они не дают такой глубокой интеграции с экосистемой LangChain.
Кому этот инструмент сломает график (в хорошем смысле)
LangGraph Deploy CLI – не для всех. Он создан для конкретной аудитории:
- Команды, которые уже используют LangSmith. Если у вас еще нет аккаунта, зарегистрируйтесь по партнерской ссылке – получите дополнительный кредит на мониторинг.
- Разработчики, уставшие от DevOps рутины. Те, кто хочет фокусироваться на агентной инженерии, а не на настройке Kubernetes.
- Стартапы, которые нужно быстро выкатывать в продакшн. Когда каждая неделя задержки стоит денег.
- Корпорации, которым нужен контроль. CLI работает с приватными облаками и корпоративными реестрами.
А вот кто будет страдать: фанаты ручной настройки каждого воркера. Им придется признать, что 80% их работы теперь автоматизировано.
Что будет, если не использовать CLI? Вы останетесь в 2024
Инструменты вроде Skills и CLI для coding agents показали: автоматизация рутинных задач увеличивает эффективность в разы. С деплоем та же история.
Мой прогноз на конец 2026: 90% продакшн-агентов будут разворачиваться через специализированные CLI. Ручные скрипты умрут как мамонты. А те, кто освоит инструменты вроде LangGraph Deploy сейчас, окажутся на гребне волны.
P.S. Первый раз запускаете деплой? Не забудьте про --dry-run – он покажет, что будет сделано, без реальных изменений. И да, если что-то пойдет не так, всегда можно откатиться: langgraph rollback --env prod. Это как Ctrl+Z для вашего продакшна.