Open-source альтернатива Claude Cowork на MiniMax M2.1 - локальный запуск | AiManual
AiManual Logo Ai / Manual.
14 Янв 2026 Инструмент

Клонируем Claude Cowork: open-source альтернатива на MiniMax M2.1 для локального запуска

Полный гайд по созданию бесплатной локальной версии Claude Cowork на базе MiniMax M2.1 с оптимизацией для Apple Silicon

Платить за Claude Cowork? Теперь можно не платить

Anthropic выпустила Claude Cowork - инструмент для совместного программирования с ИИ. Красиво, удобно, дорого. Месячная подписка стоит как хороший обед в ресторане. А если вы работаете в команде? Умножьте на количество разработчиков. Получается уже не обед, а полноценный отпуск.

Но есть альтернатива. Open-source проект, который клонирует функциональность Claude Cowork. Использует MiniMax M2.1 - модель, которая в некоторых тестах обходит Claude 3.5 Sonnet. И работает локально. Никаких лимитов запросов, никаких подписок, полная приватность.

💡
Если вы уже пробовали запускать Claude Code локально через vLLM, эта статья покажется вам логичным продолжением. Тот же принцип, но с расширенной функциональностью.

Что умеет клон Claude Cowork?

Проект воспроизводит ключевые фичи оригинала:

  • Совместное редактирование кода в реальном времени
  • Контекстное понимание проекта (работа с файловой структурой)
  • Интеллектуальные подсказки при наборе
  • Автодополнение с учетом контекста
  • Мультимодальные возможности (работа с изображениями схем и диаграмм)
  • Интеграция с популярными IDE и редакторами

Разработчики проекта взяли за основу Claude Agent SDK и адаптировали его под локальный запуск. Вместо облачного Claude - MiniMax M2.1 на вашем железе.

Почему именно MiniMax M2.1?

Выбор не случайный. Мы уже писали про MiniMax-M2.1 как темную лошадку, которая бьет гигантов. Модель показывает отличные результаты в кодинге при относительно небольшом размере.

МодельРазмерHumanEvalMBPP
MiniMax M2.17B параметров82.3%78.9%
Claude 3.5 Sonnet~50B параметров84.1%80.2%
GPT-4o Mini~20B параметров79.5%76.8%

Разница в 1.8% на HumanEval при семикратной разнице в размере? Это называется эффективность. Особенно когда модель запускается локально и не требует оплаты за токен.

Сборка для Apple Silicon - главный козырь

Разработчики проекта уделили особое внимание оптимизации под Apple M-series. Если у вас MacBook с M1/M2/M3, вы получаете:

  • Нативную компиляцию под ARM64
  • Использование Metal Performance Shaders
  • Оптимизацию под Unified Memory
  • Энергоэффективность (ваш MacBook не превратится в грелку)

Для владельцев Mac это серьезный аргумент. Облачные сервисы вроде Claude Cowork работают через браузер, но они все равно требуют стабильного интернета. Локальная версия работает офлайн. В самолете, в поезде, в кафе с плохим Wi-Fi.

Важный нюанс: для максимальной производительности на Apple Silicon нужна GGUF-версия модели. К счастью, MiniMax-M2.1 уже доступна в GGUF формате с различными квантованиями.

Как это работает под капотом?

Архитектура проекта напоминает наш предыдущий эксперимент с локальным Claude Code, но с расширениями:

  1. Llama.cpp или vLLM сервер (в зависимости от платформы)
  2. API-прокси, эмулирующий интерфейс Anthropic
  3. Модифицированный Claude Agent SDK
  4. Веб-интерфейс на React/Vite
  5. Плагины для популярных редакторов

Самый интересный компонент - модифицированный SDK. Разработчики переписали части кода, которые зависели от облачных сервисов Anthropic. Вместо них - локальные вызовы к MiniMax M2.1.

Настройка за 15 минут

Процесс установки максимально упрощен. Если у вас уже есть опыт работы с локальными LLM, вы справитесь быстрее.

1 Подготовка модели

Скачиваем GGUF-версию MiniMax M2.1. Для Mac с 16ГБ RAM подойдет Q4_K_M квантование. Для более мощных систем - Q6_K или даже Q8.

2 Запуск сервера

Запускаем llama.cpp с оптимизациями для Apple Silicon:

./llama-cli -m minimax-m2.1-q4_k_m.gguf \
  -ngl 99 \
  -c 8192 \
  --mlock \
  --host 0.0.0.0 \
  --port 8080

Флаг -ngl 99 загружает все слои в VRAM (или Unified Memory на Mac). Это критически важно для скорости.

3 Настройка прокси

Клонируем репозиторий проекта и настраиваем API-прокси:

git clone https://github.com/.../claude-cowork-clone.git
cd claude-cowork-clone
cp .env.example .env
# Редактируем .env - указываем адрес нашего llama.cpp сервера
npm install
npm run dev

Если вы работаете на Linux с NVIDIA GPU, вместо llama.cpp можно использовать vLLM. В этом случае производительность будет выше, но сложность настройки тоже.

Где проект спотыкается?

Идеальных решений не бывает. У open-source клона есть свои ограничения:

  • Мультимодальность работает хуже, чем у оригинального Claude. MiniMax M2.1 неплохо справляется с кодом, но анализ сложных схем и диаграмм - не её сильная сторона.
  • Контекстное окно 8К против 200К у Claude 3.5. Для большинства задач хватает, но очень большие проекты придется разбивать.
  • Нет облачной синхронизации между устройствами. Работаете локально - синхронизируйте проекты сами.
  • Обновления модели требуют ручного вмешательства. В облачном сервисе обновления происходят автоматически.

Но главный недостаток, на мой взгляд, - отсутствие команды поддержки. Сломается что-то в оригинальном Claude Cowork - пишете в саппорт Anthropic. Сломается здесь - ищите issue на GitHub или разбирайтесь сами.

Кому подойдет эта альтернатива?

Трем категориям пользователей:

Индивидуальные разработчики, которые не хотят платить $20+ в месяц за инструмент, которым пользуются 2-3 часа в день. Особенно если у них уже есть мощный Mac или PC.

Команды в компаниях с strict compliance требованиями. Код не уходит в облако, все остается на локальных серверах. Для финтеха, медицины, госсектора - это не просто экономия, а требование безопасности.

Исследователи и энтузиасты, которые хотят понять, как устроены подобные системы. Исходный код открыт, можно копаться, модифицировать, добавлять фичи.

💡
Если вы рассматриваете MiniMax M2.1 для production-использования, рекомендую ознакомиться с нашим практическим разбором кейса разработки агента. Там подробно разобраны сильные и слабые стороны модели.

Что будет дальше?

Open-source сообщество не стоит на месте. Уже есть форки проекта с интеграцией других моделей - не только MiniMax M2.1, но и DeepSeek Coder, CodeLlama, даже экспериментальные сборки с Qwen Coder.

Следующий логичный шаг - интеграция с MCP (Model Context Protocol). Это позволит подключать локальные модели к тем же инструментам, что и облачные. Мы уже писали про возможности MCP для локальных моделей.

Еще одно направление развития - распределенные вычисления. Если одной видеокарты не хватает, почему бы не использовать несколько? Наш гайд по запуску MiniMax-M2.1 на двух видеокартах показывает, что это реально.

Самая интересная перспектива - специализированные fine-tuned версии модели. Обучить MiniMax M2.1 на корпоративном коде или специфическом стеке технологий. Эффективность возрастет в разы.

Главный вопрос: станут ли такие проекты массовыми? Думаю, да. По мере роста цен на облачные ИИ-сервисы и улучшения локального железа, баланс будет смещаться в сторону локальных решений. Особенно для разработчиков, которые ценят контроль над своими инструментами.

Попробуйте. Даже если вернетесь к облачному Claude Cowork, вы лучше поймете, за что платите. А может, и не вернетесь.