Проблема: AUTOMATIC1111 — это игрушка. ComfyUI — это станок
Вы ставите промпт в AUTOMATIC1111. Жмете Generate. Получаете очередного аниме-девушку с шестью пальцами. Меняете seed. Пробуете еще. И еще. Это не работа — это лотерея.
ComfyUI работает иначе. Здесь вы не гадаете — вы проектируете. Каждая генерация становится предсказуемой. Каждый результат — контролируемым. Интерфейс выглядит как схема в AutoCAD, но именно это и нужно для серьезной работы.
Если вы генерируете 5 картинок в день для развлечения — оставайтесь в AUTOMATIC1111. Если вы создаете контент для клиентов, брендов или собственных проектов — читайте дальше.
Решение: Граф вместо кнопок. Почему это работает
ComfyUI — это визуальное программирование для Stable Diffusion. Каждый узел (нод) выполняет конкретную функцию: загрузка модели, кодирование промпта, применение ControlNet, апскейлинг. Вы соединяете узлы проводами, создавая пайплайн.
В AUTOMATIC1111 эти этапы скрыты под капотом. Вы не видите, как данные передаются между компонентами. В ComfyUI весь процесс перед вами. Это как разница между ездой на такси (AUTOMATIC1111) и управлением собственной машиной (ComfyUI).
Что вы теряете, оставаясь в AUTOMATIC1111
| AUTOMATIC1111 | ComfyUI |
|---|---|
| Черный ящик: непонятно, почему получился такой результат | Прозрачность: виден каждый шаг обработки |
| Память: съедает VRAM даже когда ничего не делает | Эффективность: выгружает ненужные ноды из памяти |
| Контроль: ограниченный, через десятки расширений | Гранулярность: контролируете каждый параметр каждого этапа |
| Повторяемость: сложно воспроизвести точный пайплайн | Сохранение: сохраняете весь граф как шаблон |
1Установка: не через один клик, зато навсегда
Забудьте про установщики-одним-кликом. ComfyUI устанавливается вручную, но это гарантирует, что ничего не сломается при следующем обновлении.
# Клонируем репозиторий
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# Создаем виртуальное окружение (опционально, но настоятельно рекомендую)
python -m venv venv
# Активируем на Windows
venv\Scripts\activate
# На Linux/Mac
source venv/bin/activate
# Устанавливаем зависимости
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txtНе пропускайте создание виртуального окружения! Без него ComfyUI будет конфликтовать с другими вашими Python-проектами. Через месяц вы не вспомните, какие пакеты и для чего устанавливали.
2Настройка под ваше железо: от GTX 1060 до RTX 4090
ComfyUI работает на чем угодно. Но нужно правильно настроить.
Для слабых видеокарт (менее 6GB VRAM):
# Запускаем с оптимизацией памяти
python main.py --lowvram --cpuФлаг --lowvram заставляет ComfyUI выгружать из памяти модели сразу после использования. Работает медленнее, но позволяет генерировать на картах, которые в AUTOMATIC1111 даже не запустятся.
Для мощных систем:
# Используем все ядра CPU для загрузки моделей
python main.py --highvram --disable-smart-memoryЕсли у вас слабое железо, посмотрите наш гайд Как запустить локальную Stable Diffusion на старом компьютере. Там подробно разбираем оптимизацию под ограниченные ресурсы.
3Первые модели: что качать и куда класть
После запуска ComfyUI откроется в браузере по адресу http://127.0.0.1:8188. Вы увидите пустой холст. Первое, что нужно — модели.
Структура папок:
ComfyUI/
├── models/
│ ├── checkpoints/ # Основные модели (SD 1.5, SDXL, Flux)
│ ├── loras/ # LoRA адаптеры
│ ├── vae/ # Вариационные автоэнкодеры
│ └── controlnet/ # Модели ControlNet
├── input/ # Изображения для обработки
└── output/ # Сгенерированные изображенияОбязательные модели для старта:
- SDXL 1.0 — базовая модель для большинства задач
- SD 1.5 — для работы с ControlNet (больше обученных моделей)
- FLUX.1-dev — если хотите попробовать новую архитектуру
Ваш первый граф: от пустого холста до первой картинки
Нажмите правой кнопкой на холсте → Add Node → Loaders → Load Checkpoint. Появится нод загрузки модели. Теперь нужно добавить промпт.
Add Node → Conditioning → CLIP Text Encode (Prompt). Соедините выход CLIP из Load Checkpoint с входом CLIP в Text Encode.
Теперь нужен нод самой генерации: Add Node → Sampling → KSampler. Соединяете:
- Модель из Load Checkpoint → Модель в KSampler
- Положительный промпт из CLIP Text Encode → Положительный промпт в KSampler
- Отрицательный промпт (если нужен) → Отрицательный промпт в KSampler
Добавьте нод для сохранения: Add Node → Image → Save Image. Соедините выход IMAGE из KSampler с входом изображения в Save Image.
Нажмите Queue Prompt. Через 10-30 секунд получите первую картинку.
Не пугайтесь, если с первого раза не получилось соединить ноды правильно. В ComfyUI есть защита от дурака — неправильные соединения просто не будут работать. Ничего не сломается.
Продвинутые техники: где ComfyUI вырывается вперед
Контроль через ControlNet: не гадать, а указывать
В AUTOMATIC1111 ControlNet — это отдельная вкладка с кучей ползунков. В ComfyUI каждый ControlNet — отдельный нод, который вы встраиваете именно туда, где нужно.
Пример графа для генерации по эскизу:
- Load Checkpoint (загружаем модель)
- Load ControlNet Model (загружаем control_canny для детекции краев)
- Load Image (загружаем ваш эскиз)
- Apply ControlNet (применяем ControlNet к эскизу)
- CLIP Text Encode (промпт)
- KSampler (генерация с учетом ControlNet)
- Save Image
Преимущество: вы видите, на каком именно этапе ControlNet влияет на генерацию. Можете поставить два ControlNet последовательно: первый для композиции, второй для позы.
Пайплайны для бизнеса: одна настройка — сотни вариантов
Сохраните свой граф (кнопка Save в правом верхнем углу). Теперь вы можете:
- Переиспользовать его для разных проектов
- Передать коллеге — он получит точную копию вашего рабочего процесса
- Запускать в пакетном режиме, меняя только входные изображения
Для командной работы посмотрите статью Общий сервер ComfyUI для команды. Там разбираем настройку мощного сервера, к которому могут подключаться несколько дизайнеров одновременно.
Эксперименты без риска: ветвление графа
Создайте нод KSampler. От его выхода проведите соединения к трем разным нодам:
- К обычному Save Image
- К ноду апскейлера (Upscale Image), а потом к Save Image
- К ноду применения фильтра, потом к апскейлеру, потом к Save Image
Один запуск — три разных результата с разной постобработкой. В AUTOMATIC1111 для этого нужно трижды нажимать Generate и каждый раз менять настройки.
Ошибки, которые совершают все новички (и как их избежать)
| Ошибка | Почему происходит | Как исправить |
|---|---|---|
| "Error occurred when executing KSampler" | Ноды соединены в неправильном порядке | Удалите все соединения, начните заново. Следуйте логике: модель → промпт → семплер → сохранение |
| Черный экран вместо изображения | Не подключен VAE или подключен неправильный | Добавьте нод Load VAE после Load Checkpoint |
| Генерация занимает в 10 раз дольше, чем в AUTOMATIC1111 | Используете неправильные настройки семплера | Уменьшите steps до 20-30, используйте DPM++ 2M Karras |
| Не загружаются модели | Модели лежат не в той папке | Проверьте путь в ноде Load Checkpoint или положите модели в models/checkpoints/ |
Когда ComfyUI не нужен (да, бывает и так)
ComfyUI — инструмент для контроля, а не для развлечения. Он избыточен, если вы:
- Только знакомитесь со Stable Diffusion — начните с AUTOMATIC1111
- Генерируете картинки для себя, а не для работы
- Работаете на очень слабом железе — попробуйте FlaxeoUI, он легче
- Нуждаетесь в максимальной простоте — есть более простые фронтенды
Но если вы дизайнер, иллюстратор, контент-мейкер или просто перфекционист — потратьте 2 часа на освоение ComfyUI. Эти 2 часа сэкономят вам недели в будущем.
Что дальше: куда развиваться после освоения основ
ComfyUI — это платформа. Сообщество создает сотни кастомных нодов для специфических задач:
- ComfyUI Manager — магазин расширений прямо в интерфейсе
- Custom nodes для анимации — создание коротких видео
- Ноды для работы с 3D — генерация текстур, преобразование 2D в 3D
- Интеграция с внешними API — отправка результатов прямо в Figma или Photoshop
Установите ComfyUI Manager через терминал:
cd ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ComfyUI-Manager
pip install -r requirements.txtПерезапустите ComfyUI. В интерфейсе появится кнопка Manager. Теперь вы можете устанавливать расширения в один клик.
Не устанавливайте все расширения подряд. Каждое добавляет новые ноды в меню, интерфейс превращается в свалку. Устанавливайте только то, что действительно нужно для ваших задач.
Итог: почему я перешел на ComfyUI и не вернусь обратно
Год назад я думал, что AUTOMATIC1111 — это вершина. Потом попробовал ComfyUI. Первые два часа ненавидел его. Интерфейс казался сложным, логика — непонятной.
На третий час что-то щелкнуло. Я осознал, что не гадаю, а проектирую. Что каждая следующая генерация будет лучше предыдущей, потому что я понимаю, какие параметры на что влияют.
Сегодня я использую ComfyUI для:
- Генерации контента для клиентов — могу точно воспроизвести стиль
- Создания пайплайнов для повторяющихся задач — одна настройка на 100 картинок
- Экспериментов — легко тестирую новые модели и техники
- Обучения коллег — показываю не кнопки, а принципы работы
ComfyUI не для всех. Но если вы серьезно работаете с генерацией изображений — это не выбор, а необходимость. Как Photoshop для фотографа или Visual Studio для программиста.
Начните с простого графа. Добавьте один ControlNet. Сохраните шаблон. Через неделю вы не вспомните, как жили без этого.
P.S. Если у вас слабая видеокарта и ComfyUI все равно тормозит — посмотрите гайд по C++ фронтендам. Они работают еще быстрее, хотя и менее функциональны.