IdleClaw: децентрализованная сеть AI на Ollama | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
04 Мар 2026 Инструмент

IdleClaw: как создать распределённую сеть инференса AI, используя простаивающие Ollama на ПК сообщества

Как использовать простаивающие ПК для создания распределенной сети инференса AI с IdleClaw. Сравнение, установка, примеры использования. Экономьте на API.

Зачем платить за облака, если можно красть циклы у друзей?

Допустим, у вас есть с десяток знакомых с игровыми видеокартами. Днём они работают или учатся, а железо простаивает. IdleClaw – это инструмент, который превращает эту кучу мощностей в единую сеть для запуска больших языковых моделей. Никаких платных API, только чистый Python, WebSocket и немного анархии.

💡
На 04.03.2026 IdleClaw стабильно работает с Ollama версии 0.6.0 и выше, поддерживая все актуальные модели, включая свежие релизы Meta Llama 4 405B, Qwen2.5 72B и смеси экспертов Mixtral 8x22B.

Как IdleClaw превращает ваш Discord-сервер в суперкомпьютер

Архитектура проста до безобразия. Вы ставите легкий агент на каждый компьютер с Ollama. Агент подключается к центральному серверу (который может быть на вашем же ноутбуке) через WebSocket и докладывает, какие модели и сколько памяти свободно. Сервер принимает запросы от клиентов и раскидывает их по сети, как диспетчер. Вся магия в asyncio и умной очереди задач.

Не путайте с проектами вроде OpenClaw 120B, который распределяет одну модель по железу. IdleClaw создает пул из множества независимых нод, каждая со своими моделями.

Стек: что внутри этого Франкенштейна

Тут всё на питоне, но без лишних наворотов. FastAPI для сервера, websockets для связи, pydantic для валидации. Агент – это один файл на 300 строк. Сервер – ещё два. Лицензия AGPL v3, так что если сделаете коммерческую обёртку – будьте добры открыть исходники. Проект живёт на GitHub, последний коммит был неделю назад.

Установка: три команды и вы в деле

На сервере (том, что будет раздавать задания):

git clone https://github.com/someuser/idleclaw.git
cd idleclaw/server
pip install -r requirements.txt
python main.py --host 0.0.0.0 --port 8765

На клиенте (чужом ПК, который будет работать):

cd idleclaw/agent
pip install -r requirements.txt
python agent.py --server ws://ваш-сервер:8765 --name "Андрей-с-4090"

Всё. Агент сам сканирует, какие модели у вас загружены в Ollama, и шлёт метаданные на сервер. Если у вас есть Mac, посмотрите статью про oMLX – там похожая идея, но для экосистемы Apple.

С чем вообще конкурирует этот кустарный кластер?

Инструмент Плюсы Минусы Когда выбирать
IdleClaw Бесплатно, минимальные требования, живая очередь запросов Нет шифрования, ручное управление нодами, сетевая магия на вас Закрытое сообщество, хобби-проекты, тестирование моделей
Облачные API (OpenAI, Anthropic) Надёжность, скорость, простота Счёт приходит регулярно, данные утекают Производство, когда стабильность важнее денег
AI Grid Работает в браузере, не нужно ставить софт Ограничения браузера, медленнее Публичные демо, образовательные проекты
LLMeQueue Профессиональная очередь, балансировка нагрузки Только для одной ноды, сложнее настроить Публичный сервис на своём мощном сервере

IdleClaw не пытается быть профессиональным решением. Он для тех, кто готов мириться с тем, что завтра нода «Андрей-с-4090» уйдёт играть в Helldivers 3 и отвалится от сети. Это feature, не bug.

«А что можно сделать-то?» – реальные сценарии

Представьте, что вы собираете команду для игры в D&D. У каждого игрока на ноутбуке стоит Ollama с Llama 3.1 8B. Вы запускаете IdleClaw, и ваш мастер-бот обрабатывает запросы от всех игроков, распределяя генерацию по их же компьютерам. Иронично и бесплатно.

Или вот практичнее: небольшая студия дизайна. У них пять рабочих станций с RTX 4070. Днём они в Figma, ночью – запускают кластер IdleClaw, который гоняет Stable Diffusion 3 или обрабатывает тексты с помощью Qwen2.5. Плата за электричество уже включена в аренду.

Для серьёзных нагрузок, где нужна стабильность, смотрите в сторону мульти-нод кластеров. IdleClaw – это про спонтанную кооперацию.

В 2026 году многие забыли, но модель Llama 2 70B до сих пор отлично работает для RAG. И её можно запустить, собрав мощность с трёх ноутбуков по 32 ГБ оперативки. IdleClaw идеально подходит для таких экспериментов.

Кому стоит заморачиваться с IdleClaw?

  • Студенты и исследователи: нет бюджета на OpenAI API, но есть доступ в компьютерный класс. (Только получите разрешение от администратора, а то вас выгонят).
  • Небольшие гильдии в играх или онлайн-сообщества: хотите своего чат-бота, но аренда VPS дорогая. Собираете скиллы с участников.
  • Энтузиасты децентрализации: тем, кому нравится сама идея, что ИИ работает не в дата-центре, а на соседском ноутбуке.
  • Те, кто хочет потрогать распределенные системы: код простой, можно разобраться за вечер и сделать свой форк.

Не беритесь за IdleClaw, если вам нужна 99.9% аптайма или вы обрабатываете медицинские данные. Безопасность здесь на уровне доверия между участниками. Читали статью «Хочешь вытащить свою LLM в интернет?» – все риски те же.

Что будет дальше? (Спойлер: ничего)

IdleClaw не станет следующим Kubernetes для AI. Его судьба – быть одним из сотни гиковских проектов на GitHub, который трижды форкнут, добавят поддержку Open Cowork и забросят. Но это не важно. Важно, что он доказывает: создать распределенную сеть инференса можно за выходные. И что мощь сообщества до сих пор сильнее одного кошелька.

Попробуйте. Запустите сервер, попросите друга установить агент. Увидите, как запрос к Llama 4 выполнится на его видеокарте. Это магия, которую не купить за деньги. Пока он не выключит компьютер.

Подписаться на канал