Запуск Stable Diffusion на слабом ПК: гайд для старых компьютеров | AiManual
AiManual Logo Ai / Manual.
28 Дек 2025 Гайд

Как запустить локальную Stable Diffusion на старом компьютере: пошаговый гайд

Пошаговое руководство по запуску локальной Stable Diffusion на старом компьютере без мощной видеокарты. Оптимизация, Vulkan, экономия ресурсов.

Почему старые компьютеры — не приговор для Stable Diffusion

Если вы думаете, что для запуска современных нейросетей нужен дорогой компьютер с топовой видеокартой — вы не совсем правы. Да, мощное железо ускоряет процесс, но это не значит, что владельцы старых систем должны оставаться в стороне от локальной генерации изображений.

💡
Главный секрет в оптимизации. Современные реализации Stable Diffusion научились работать даже на интегрированной графике и процессорах без CUDA-ускорения. Это открывает возможности для миллионов пользователей со старым железом.

Проблема: почему стандартные способы не работают

Традиционные методы запуска Stable Diffusion (через AUTOMATIC1111 или ComfyUI) требуют:

  • Видеокарты NVIDIA с поддержкой CUDA (обычно от GTX 1060 и выше)
  • Минимум 4-6 ГБ видеопамяти
  • Современный Python и сложные зависимости
  • Много места на диске (модели от 2 ГБ)

Владельцы старых компьютеров сталкиваются с ошибками CUDA out of memory, медленной генерацией (минуты на одно изображение) или вообще невозможностью запуска. Но решение есть!

Решение: WebGPU + Vulkan + оптимизированные модели

Мы будем использовать Stable Diffusion WebUI от AUTOMATIC1111, но с ключевыми оптимизациями:

Компонент Стандартный подход Наш подход
Графический API CUDA (только NVIDIA) Vulkan/WebGPU (любая карта)
Модель SD 1.5/XL (2-7 ГБ) TinySD или оптимизированные версии
Потребление памяти 4-8 ГБ VRAM 1-2 ГБ VRAM/системной

1 Подготовка системы: проверка совместимости

Перед установкой убедитесь, что ваш компьютер соответствует минимальным требованиям:

  • Операционная система: Windows 10/11, Linux, macOS
  • Процессор: Любой x64 с поддержкой AVX (большинство с 2011 года)
  • Оперативная память: Минимум 8 ГБ (рекомендуется 16 ГБ)
  • Видеокарта: Любая с поддержкой Vulkan 1.1+ (Intel HD Graphics 400+, AMD Radeon HD 7000+, NVIDIA GeForce 600+)
  • Место на диске: 10 ГБ свободного пространства
# Проверка поддержки Vulkan на Linux
vulkaninfo | grep "Vulkan API"

# Проверка на Windows (через PowerShell)
Get-WmiObject Win32_VideoController | Select-Object Name, DriverVersion

2 Установка Node.js и зависимостей

Мы будем использовать stable-diffusion-webui с поддержкой WebGPU, который менее требователен к железу:

# Для Windows:
# 1. Скачайте Node.js с официального сайта (версия 18+)
# 2. Установите Git для Windows
# 3. Установите Python 3.10 (отметьте "Add to PATH")

# Для Linux (Ubuntu/Debian):
sudo apt update
sudo apt install nodejs npm git python3 python3-pip
sudo npm install -g n
sudo n stable

# Для macOS:
brew install node git python@3.10

Важно: Python 3.10 — оптимальная версия для совместимости. Более новые версии могут вызывать проблемы с некоторыми зависимостями.

3 Установка Stable Diffusion WebUI

Клонируем и настраиваем оптимизированную версию:

# Создаем папку для проекта
mkdir stable-diffusion-old-pc
cd stable-diffusion-old-pc

# Клонируем репозиторий
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# Для Windows: запускаем webui-user.bat и редактируем
# Добавляем в COMMANDLINE_ARGS:
# --use-cpu --precision full --no-half --skip-torch-cuda-test

# Для Linux/macOS:
python3 -m venv venv
source venv/bin/activate  # или venv\Scripts\activate на Windows
pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
pip install -r requirements.txt

4 Загрузка оптимизированных моделей

Вместо тяжелых оригинальных моделей используем оптимизированные версии:

  1. Скачайте модель SD 1.5 Pruned (около 2 ГБ вместо 4 ГБ)
  2. Или используйте TinySD (всего 500 МБ) для максимальной экономии
  3. Поместите модель в папку stable-diffusion-webui/models/Stable-diffusion/
💡
Для совсем слабых систем рекомендую начать с TinySD. Качество будет немного ниже, но скорость генерации на старом железе увеличится в 3-5 раз по сравнению с полной моделью.

5 Настройка для слабого железа

Ключевые параметры в файле webui-user.sh или webui-user.bat:

# Для систем с 8 ГБ ОЗУ или интегрированной графикой:
export COMMANDLINE_ARGS="--lowvram --medvram --precision full --no-half --cpu --opt-sub-quad-attention --disable-nan-check"

# Для совсем слабых систем (4-6 ГБ ОЗУ):
export COMMANDLINE_ARGS="--lowvram --precision full --no-half --cpu --opt-split-attention --always-batch-cond-uncond --max-batch-count 2"

Оптимизация производительности: секретные настройки

Параметр Значение Эффект
Шагов генерации 20-25 (вместо 50) Ускорение в 2 раза
CFG Scale 7-8 Меньше вычислений
Размер изображения 512x512 Оптимально для памяти
Sampler Euler a Быстрее всего

Возможные проблемы и их решения

Проблема 1: "Out of memory" даже с настройками

Решение: Установите расширение Memory Efficient Attention:

# В веб-интерфейсе перейдите на вкладку Extensions
# Установите через URL: https://github.com/bmaltais/stable-diffusion-webui-comfyui

Проблема 2: Очень медленная генерация (2+ минуты)

Решение: Используйте xformers даже для CPU:

pip install xformers --index-url https://download.pytorch.org/whl/cpu
# Добавьте в COMMANDLINE_ARGS: --xformers

Проблема 3: Черные или искаженные изображения

Решение: Это частая проблема с --no-half. Попробуйте:

  • Убрать --no-half если система поддерживает half precision
  • Использовать --precision full
  • Проверить целостность модели

Альтернативные варианты для самых слабых систем

Если даже оптимизированный WebUI не запускается, попробуйте:

  1. Draw Things (iOS/macOS) — отлично работает на старых Mac
  2. DiffusionBee (macOS) — максимально оптимизирован
  3. Stable Diffusion CLI через llama.cpp аналог для диффузии
  4. Онлайн-альтернативы с локальной обработкой (если есть интернет)

Похожие принципы оптимизации применимы и для локального запуска LLM. Если вы хотите запускать языковые модели на слабом железе, ознакомьтесь с нашим гайдом по избежанию ошибок при локальном запуске больших LLM.

FAQ: Частые вопросы

Сколько времени займет генерация изображения на старом компьютере?

На процессоре 5-10 летней давности: 1-3 минуты на изображение 512x512. С интегрированной графикой Intel UHD: 30-90 секунд. С дискретной картой GTX 750 Ti: 15-30 секунд.

Можно ли использовать LoRA и ControlNet на слабом ПК?

Да, но с ограничениями. LoRA работают хорошо, ControlNet — только самые легкие (canny, scribble). Используйте низкий вес (0.3-0.5) и уменьшенное разрешение.

Какой самый минимальный ПК, на котором это запустится?

Теоретически: любой с 4 ГБ ОЗУ, 64-битным процессором и 10 ГБ на диске. Практически: для комфортной работы нужно 8 ГБ ОЗУ и процессор не старше 2013 года.

Есть ли способ ускорить генерацию кроме апгрейда железа?

Да: используйте TinySD модели, уменьшайте количество шагов до 15-20, генерируйте в 256x256 и увеличивайте через ESRGAN отдельно, отключайте все ненужные процессы в системе.

💡
Если вы планируете серьезно заниматься локальной генерацией и рассматриваете апгрейд, рекомендую наше сравнение видеокарт для локальных LLM. Многие принципы применимы и к Stable Diffusion.

Заключение: демократизация AI

Возможность запускать Stable Diffusion на старом компьютере — это не просто технический трюк. Это важный шаг к демократизации искусственного интеллекта. Теперь художники, студенты, исследователи и просто любопытные пользователи со старым железом могут экспериментировать с генерацией изображений без инвестиций в дорогое оборудование.

Помните: скорость генерации — не главное. Главное — доступность технологии и возможность творческого самовыражения. Начните с простых промптов, экспериментируйте с настройками, и вы обнаружите, что даже на старом компьютере можно создавать удивительные изображения.

А если вы захотите перейти к языковым моделям, наши гайды по запуску Minimax-M2.1 на Mac и стратегиям масштабирования локальных LLM помогут вам освоить и эту область.