Когда архитектура утекает сквозь пальцы
Помните этот момент? Вы присоединяетесь к проекту, смотрите на десять репозиториев, сотни тысяч строк кода и думаете: "Где же тут главный модуль?" Документации нет, а та, что есть, устарела три года назад. Классика.
Платные SaaS-сервисы вроде Augment Code MCP обещают помочь, но они стоят $20 в месяц и отправляют ваш код неизвестно куда. Для конфиденциальных проектов — неприемлемо. Для бюджета — раздражающе.
На 13 марта 2026 года ситуация с приватностью в облачных AI-сервисах только ухудшилась. Новые пользовательские соглашения крупных провайдеров явно дают им право тренировать модели на вашем коде. Читали мелкий шрифт?
Corbell: ваш личный архитектор в терминале
Corbell — это open-source утилита, которая решает проблему радикально. Она сканирует локальные папки с кодом (одну или несколько), строит граф зависимостей между файлами и модулями, а потом — самое интересное — генерирует подробный дизайн-документ, объясняющий, как всё это работает.
И делает она это полностью локально. Никаких API-ключей, никаких отправок в облако. Всё летает в вашем Docker-контейнере или на прямом железе.
Что внутри: SQLite, эмбеддинги и локальная магия
Архитектура Corbell проста и элегантна, как удар отверткой.
- Сканер кода: Обходит указанные директории, парсит файлы (поддерживает Python, JavaScript/TypeScript, Go, Java и другие), извлекает импорты, функции, классы.
- Граф зависимостей: Строит визуальное (или JSON) представление связей между файлами. Кто от кого зависит. Где циклические зависимости.
- Векторная база: Использует
sentence-transformers(актуальная версия 3.2.0 на март 2026) для создания эмбеддингов фрагментов кода и документации. Хранит всё в SQLite. Никакого внешнего Pinecone или Weaviate. - MCP-сервер: Реализует Model Context Protocol. Это значит, что Corbell может выступать как источник контекста для любых клиентов, поддерживающих MCP (например, новых версий Cursor или Claude Desktop).
- Движок запросов: Принимает естественно-языковые вопросы ("Как работает аутентификация?", "Покажи мне основной поток данных") и ищет ответы в графе и эмбеддингах.
- Генератор документов: Интегрируется с LLM через Ollama для финального шага — создания связного текста, диаграмм в Mermaid.js и выводов.
Вся эта цепочка работает без интернета. Главное — иметь достаточно оперативки для выбранной LLM в Ollama.
Платный брат-близнец: Augment Code MCP за $20/мес
Почему Corbell вообще появился? Посмотрите на Augment. Это проприетарный MCP-сервер, который умеет примерно то же самое: анализирует код, отвечает на вопросы. Но он cloud-based. И платный.
| Критерий | Corbell | Augment Code MCP |
|---|---|---|
| Цена | Бесплатно (MIT License) | $20/месяц |
| Обработка данных | 100% локальная | Облачная (серверы провайдера) |
| Поддерживаемые LLM | Любая модель в Ollama (Llama 3.2, Mistral 2.1, Command R+, локальные fine-tune) | Только модели Augment (на базе GPT-4o или аналогичных) |
| Требования | Docker, Python, ~8 ГБ ОЗУ для средних моделей | Только интернет и подписка |
| Кастомизация | Полная. Можете править код, обучать свои эмбеддеры. | Нулевая. |
Выбор, кажется, очевиден для тех, кому важна приватность или кто работает в изолированных средах. Augment — это быстрое решение "из коробки" для индивидуальных разработчиков на стартапах. Corbell — инструмент для компаний, которые не шутят с безопасностью. Или для параноиков (что часто одно и то же).
Запускаем за 5 минут: от установки до первого дизайн-документа
В теории всё звучит сложно. На практике — три команды в терминале. Предположим, у вас уже стоит Docker и Ollama с какой-нибудь моделью (например, стабильной llama3.2:latest).
1Клонируем и собираем
git clone https://github.com/yourusername/corbell.git # Адрес репозитория актуален на 13.03.2026
cd corbell
docker-compose up -dDocker-compose файл поднимет три сервиса: сам Corbell, Ollama (если не используете локальную) и мини-веб-интерфейс для просмотра графов.
2Указываем путь к коду
docker exec -it corbell-app python cli.py scan --path /absolute/path/to/your/codeИнструмент пройдется по всем файлам, построит граф и заполнит SQLite-базу эмбеддингами. Для большого монорепозитория это может занять 10-15 минут. Идеальный повод сварить кофе.
3Задаём вопрос и получаем документ
docker exec -it corbell-app python cli.py ask \
--query "Объясни архитектуру модуля аутентификации и сгенерируй дизайн-док в markdown" \
--model llama3.2 \
--output doc.mdЧерез пару минут в файле doc.md у вас будет готовый документ с разделами, диаграммой последовательности и даже списком "болевых точек" архитектуры, которые нашла модель.
Совет: Не начинайте с огромного репозитория. Возьмите один небольшой сервис на 5-10 тысяч строк, чтобы понять, как инструмент себя ведёт и какие промпты дают лучший результат. По опыту, модели Llama 3.2 (13B параметров) в Ollama справляются с такими задачами на ура.
Кому это нужно (спойлер: почти всем)
Есть три категории людей, для которых Corbell не просто игрушка, а спасение.
Техлиды и архитекторы, которые приходят в новый проект и должны быстро выдать оценку и план рефакторинга. Вместо недели чтения кода — несколько часов работы Corbell и готовый отчет. Это меняет правила игры. (Если хотите глубже погрузиться в автоматизацию архитектурного анализа, посмотрите нашу статью про архитектуру как код).
Команды в регулируемых отраслях (финтех, медицина, госсектор). Где аудиторы требуют актуальную документацию, а отправка кода в сторонние сервисы запрещена внутренним compliance. Локальность — не прихоть, а требование.
Разработчики open-source проектов, которые хотят поддерживать качественную документацию, но ненавидят этот процесс. Настройте Corbell на CI/CD, чтобы при каждом мерж-реквесте в главную ветку он автоматически обновлял раздел "Architecture" в README. Магия.
А вот индивидуальным разработчикам, делающим пет-проекты на React, это, скорее всего, overkill. Им хватит и встроенных возможностей IDE.
Будущее: когда Corbell заменит митинги по архитектуре
Инструменты вроде Corbell — это не просто ещё одна утилита. Это признак сдвига. Документация перестаёт быть рутинным трудом и становится побочным продуктом разработки. А анализ архитектуры — интерактивным диалогом с ИИ, который знает код лучше, чем некоторые миддлы в команде.
Главный риск сейчас — это иллюзия понимания. LLM, особенно локальные и не самые крупные, могут галлюцинировать, придумывать несуществующие модули или неправильно интерпретировать сложные паттерны. Поэтому финальный дизайн-документ всё равно должен пройти проверку человеком. Но уже не с чистого листа, а как редакторская правка.
Следующий логичный шаг — интеграция с системой тикетов. Представьте: Corbell анализирует код, видит, что модуль X имеет cyclomatic complexity 45 и зависит от устаревшей библиотеки, автоматически создаёт тикет в Jira с готовым описанием проблемы и даже предлагает план исправления. Это уже не фантастика, а PR, который кто-то точно делает прямо сейчас.
Пока крупные вендоры продают подписки на свои облачные магические штуки, opensource-сообщество тихо собирает свой пазл из Ollama, SQLite и Python-скриптов. И этот пазл часто оказывается не только дешевле, но и умнее.
Попробуйте. Сканируйте свой старый пет-проект. Вы удивитесь, сколько архитектурного мусора он там найдёт. (И да, вам потом захочется это всё починить).