Платить за Claude Cowork? Теперь можно не платить
Anthropic выпустила Claude Cowork - инструмент для совместного программирования с ИИ. Красиво, удобно, дорого. Месячная подписка стоит как хороший обед в ресторане. А если вы работаете в команде? Умножьте на количество разработчиков. Получается уже не обед, а полноценный отпуск.
Но есть альтернатива. Open-source проект, который клонирует функциональность Claude Cowork. Использует MiniMax M2.1 - модель, которая в некоторых тестах обходит Claude 3.5 Sonnet. И работает локально. Никаких лимитов запросов, никаких подписок, полная приватность.
Что умеет клон Claude Cowork?
Проект воспроизводит ключевые фичи оригинала:
- Совместное редактирование кода в реальном времени
- Контекстное понимание проекта (работа с файловой структурой)
- Интеллектуальные подсказки при наборе
- Автодополнение с учетом контекста
- Мультимодальные возможности (работа с изображениями схем и диаграмм)
- Интеграция с популярными IDE и редакторами
Разработчики проекта взяли за основу Claude Agent SDK и адаптировали его под локальный запуск. Вместо облачного Claude - MiniMax M2.1 на вашем железе.
Почему именно MiniMax M2.1?
Выбор не случайный. Мы уже писали про MiniMax-M2.1 как темную лошадку, которая бьет гигантов. Модель показывает отличные результаты в кодинге при относительно небольшом размере.
| Модель | Размер | HumanEval | MBPP |
|---|---|---|---|
| MiniMax M2.1 | 7B параметров | 82.3% | 78.9% |
| Claude 3.5 Sonnet | ~50B параметров | 84.1% | 80.2% |
| GPT-4o Mini | ~20B параметров | 79.5% | 76.8% |
Разница в 1.8% на HumanEval при семикратной разнице в размере? Это называется эффективность. Особенно когда модель запускается локально и не требует оплаты за токен.
Сборка для Apple Silicon - главный козырь
Разработчики проекта уделили особое внимание оптимизации под Apple M-series. Если у вас MacBook с M1/M2/M3, вы получаете:
- Нативную компиляцию под ARM64
- Использование Metal Performance Shaders
- Оптимизацию под Unified Memory
- Энергоэффективность (ваш MacBook не превратится в грелку)
Для владельцев Mac это серьезный аргумент. Облачные сервисы вроде Claude Cowork работают через браузер, но они все равно требуют стабильного интернета. Локальная версия работает офлайн. В самолете, в поезде, в кафе с плохим Wi-Fi.
Важный нюанс: для максимальной производительности на Apple Silicon нужна GGUF-версия модели. К счастью, MiniMax-M2.1 уже доступна в GGUF формате с различными квантованиями.
Как это работает под капотом?
Архитектура проекта напоминает наш предыдущий эксперимент с локальным Claude Code, но с расширениями:
- Llama.cpp или vLLM сервер (в зависимости от платформы)
- API-прокси, эмулирующий интерфейс Anthropic
- Модифицированный Claude Agent SDK
- Веб-интерфейс на React/Vite
- Плагины для популярных редакторов
Самый интересный компонент - модифицированный SDK. Разработчики переписали части кода, которые зависели от облачных сервисов Anthropic. Вместо них - локальные вызовы к MiniMax M2.1.
Настройка за 15 минут
Процесс установки максимально упрощен. Если у вас уже есть опыт работы с локальными LLM, вы справитесь быстрее.
1 Подготовка модели
Скачиваем GGUF-версию MiniMax M2.1. Для Mac с 16ГБ RAM подойдет Q4_K_M квантование. Для более мощных систем - Q6_K или даже Q8.
2 Запуск сервера
Запускаем llama.cpp с оптимизациями для Apple Silicon:
./llama-cli -m minimax-m2.1-q4_k_m.gguf \
-ngl 99 \
-c 8192 \
--mlock \
--host 0.0.0.0 \
--port 8080Флаг -ngl 99 загружает все слои в VRAM (или Unified Memory на Mac). Это критически важно для скорости.
3 Настройка прокси
Клонируем репозиторий проекта и настраиваем API-прокси:
git clone https://github.com/.../claude-cowork-clone.git
cd claude-cowork-clone
cp .env.example .env
# Редактируем .env - указываем адрес нашего llama.cpp сервера
npm install
npm run devЕсли вы работаете на Linux с NVIDIA GPU, вместо llama.cpp можно использовать vLLM. В этом случае производительность будет выше, но сложность настройки тоже.
Где проект спотыкается?
Идеальных решений не бывает. У open-source клона есть свои ограничения:
- Мультимодальность работает хуже, чем у оригинального Claude. MiniMax M2.1 неплохо справляется с кодом, но анализ сложных схем и диаграмм - не её сильная сторона.
- Контекстное окно 8К против 200К у Claude 3.5. Для большинства задач хватает, но очень большие проекты придется разбивать.
- Нет облачной синхронизации между устройствами. Работаете локально - синхронизируйте проекты сами.
- Обновления модели требуют ручного вмешательства. В облачном сервисе обновления происходят автоматически.
Но главный недостаток, на мой взгляд, - отсутствие команды поддержки. Сломается что-то в оригинальном Claude Cowork - пишете в саппорт Anthropic. Сломается здесь - ищите issue на GitHub или разбирайтесь сами.
Кому подойдет эта альтернатива?
Трем категориям пользователей:
Индивидуальные разработчики, которые не хотят платить $20+ в месяц за инструмент, которым пользуются 2-3 часа в день. Особенно если у них уже есть мощный Mac или PC.
Команды в компаниях с strict compliance требованиями. Код не уходит в облако, все остается на локальных серверах. Для финтеха, медицины, госсектора - это не просто экономия, а требование безопасности.
Исследователи и энтузиасты, которые хотят понять, как устроены подобные системы. Исходный код открыт, можно копаться, модифицировать, добавлять фичи.
Что будет дальше?
Open-source сообщество не стоит на месте. Уже есть форки проекта с интеграцией других моделей - не только MiniMax M2.1, но и DeepSeek Coder, CodeLlama, даже экспериментальные сборки с Qwen Coder.
Следующий логичный шаг - интеграция с MCP (Model Context Protocol). Это позволит подключать локальные модели к тем же инструментам, что и облачные. Мы уже писали про возможности MCP для локальных моделей.
Еще одно направление развития - распределенные вычисления. Если одной видеокарты не хватает, почему бы не использовать несколько? Наш гайд по запуску MiniMax-M2.1 на двух видеокартах показывает, что это реально.
Самая интересная перспектива - специализированные fine-tuned версии модели. Обучить MiniMax M2.1 на корпоративном коде или специфическом стеке технологий. Эффективность возрастет в разы.
Главный вопрос: станут ли такие проекты массовыми? Думаю, да. По мере роста цен на облачные ИИ-сервисы и улучшения локального железа, баланс будет смещаться в сторону локальных решений. Особенно для разработчиков, которые ценят контроль над своими инструментами.
Попробуйте. Даже если вернетесь к облачному Claude Cowork, вы лучше поймете, за что платите. А может, и не вернетесь.