Зачем платить за облака, если можно красть циклы у друзей?
Допустим, у вас есть с десяток знакомых с игровыми видеокартами. Днём они работают или учатся, а железо простаивает. IdleClaw – это инструмент, который превращает эту кучу мощностей в единую сеть для запуска больших языковых моделей. Никаких платных API, только чистый Python, WebSocket и немного анархии.
Как IdleClaw превращает ваш Discord-сервер в суперкомпьютер
Архитектура проста до безобразия. Вы ставите легкий агент на каждый компьютер с Ollama. Агент подключается к центральному серверу (который может быть на вашем же ноутбуке) через WebSocket и докладывает, какие модели и сколько памяти свободно. Сервер принимает запросы от клиентов и раскидывает их по сети, как диспетчер. Вся магия в asyncio и умной очереди задач.
Не путайте с проектами вроде OpenClaw 120B, который распределяет одну модель по железу. IdleClaw создает пул из множества независимых нод, каждая со своими моделями.
Стек: что внутри этого Франкенштейна
Тут всё на питоне, но без лишних наворотов. FastAPI для сервера, websockets для связи, pydantic для валидации. Агент – это один файл на 300 строк. Сервер – ещё два. Лицензия AGPL v3, так что если сделаете коммерческую обёртку – будьте добры открыть исходники. Проект живёт на GitHub, последний коммит был неделю назад.
Установка: три команды и вы в деле
На сервере (том, что будет раздавать задания):
git clone https://github.com/someuser/idleclaw.git
cd idleclaw/server
pip install -r requirements.txt
python main.py --host 0.0.0.0 --port 8765
На клиенте (чужом ПК, который будет работать):
cd idleclaw/agent
pip install -r requirements.txt
python agent.py --server ws://ваш-сервер:8765 --name "Андрей-с-4090"
Всё. Агент сам сканирует, какие модели у вас загружены в Ollama, и шлёт метаданные на сервер. Если у вас есть Mac, посмотрите статью про oMLX – там похожая идея, но для экосистемы Apple.
С чем вообще конкурирует этот кустарный кластер?
| Инструмент | Плюсы | Минусы | Когда выбирать |
|---|---|---|---|
| IdleClaw | Бесплатно, минимальные требования, живая очередь запросов | Нет шифрования, ручное управление нодами, сетевая магия на вас | Закрытое сообщество, хобби-проекты, тестирование моделей |
| Облачные API (OpenAI, Anthropic) | Надёжность, скорость, простота | Счёт приходит регулярно, данные утекают | Производство, когда стабильность важнее денег |
| AI Grid | Работает в браузере, не нужно ставить софт | Ограничения браузера, медленнее | Публичные демо, образовательные проекты |
| LLMeQueue | Профессиональная очередь, балансировка нагрузки | Только для одной ноды, сложнее настроить | Публичный сервис на своём мощном сервере |
IdleClaw не пытается быть профессиональным решением. Он для тех, кто готов мириться с тем, что завтра нода «Андрей-с-4090» уйдёт играть в Helldivers 3 и отвалится от сети. Это feature, не bug.
«А что можно сделать-то?» – реальные сценарии
Представьте, что вы собираете команду для игры в D&D. У каждого игрока на ноутбуке стоит Ollama с Llama 3.1 8B. Вы запускаете IdleClaw, и ваш мастер-бот обрабатывает запросы от всех игроков, распределяя генерацию по их же компьютерам. Иронично и бесплатно.
Или вот практичнее: небольшая студия дизайна. У них пять рабочих станций с RTX 4070. Днём они в Figma, ночью – запускают кластер IdleClaw, который гоняет Stable Diffusion 3 или обрабатывает тексты с помощью Qwen2.5. Плата за электричество уже включена в аренду.
Для серьёзных нагрузок, где нужна стабильность, смотрите в сторону мульти-нод кластеров. IdleClaw – это про спонтанную кооперацию.
В 2026 году многие забыли, но модель Llama 2 70B до сих пор отлично работает для RAG. И её можно запустить, собрав мощность с трёх ноутбуков по 32 ГБ оперативки. IdleClaw идеально подходит для таких экспериментов.
Кому стоит заморачиваться с IdleClaw?
- Студенты и исследователи: нет бюджета на OpenAI API, но есть доступ в компьютерный класс. (Только получите разрешение от администратора, а то вас выгонят).
- Небольшие гильдии в играх или онлайн-сообщества: хотите своего чат-бота, но аренда VPS дорогая. Собираете скиллы с участников.
- Энтузиасты децентрализации: тем, кому нравится сама идея, что ИИ работает не в дата-центре, а на соседском ноутбуке.
- Те, кто хочет потрогать распределенные системы: код простой, можно разобраться за вечер и сделать свой форк.
Не беритесь за IdleClaw, если вам нужна 99.9% аптайма или вы обрабатываете медицинские данные. Безопасность здесь на уровне доверия между участниками. Читали статью «Хочешь вытащить свою LLM в интернет?» – все риски те же.
Что будет дальше? (Спойлер: ничего)
IdleClaw не станет следующим Kubernetes для AI. Его судьба – быть одним из сотни гиковских проектов на GitHub, который трижды форкнут, добавят поддержку Open Cowork и забросят. Но это не важно. Важно, что он доказывает: создать распределенную сеть инференса можно за выходные. И что мощь сообщества до сих пор сильнее одного кошелька.
Попробуйте. Запустите сервер, попросите друга установить агент. Увидите, как запрос к Llama 4 выполнится на его видеокарте. Это магия, которую не купить за деньги. Пока он не выключит компьютер.