AI агенты ищут код. Медленно. Дорого. Небезопасно.
Представьте, ваш локальный AI-агент пытается понять вашу кодовую базу. Он шлет запросы в облако, ждет ответа 2-3 секунды, платит за каждый вызов и, по сути, отправляет весь ваш код на сторону. Абсурд? В 2026 году — да.
Vera появилась, чтобы исправить эту ерунду. Это не просто поисковик. Это движок, который работает на вашем ноутбуке, не спрашивает разрешения и не пытается продать ваши данные. Написан на Rust, использует BM25 для ключевых слов и векторный поиск через ONNX-модели. И да, он совместим с Model Context Protocol (MCP), который стал стандартом де-факто для подключения инструментов к агентам вроде Claude Desktop или DeepAgents CLI.
Что внутри этого Rust-монстра?
Vera не пытается быть всем для всех. Ее задача — найти релевантные фрагменты кода по запросу на естественном языке. Быстро и точно.
- Гибридный поиск: Классический BM25 (тот же алгоритм, что в Elasticsearch) для точного совпадения терминов + векторный поиск по семантическому смыслу. Результаты ранжируются с помощью cross-encoder (например, модели bge-reranker-v3.0, доступной в ONNX-формате).
- Локальные эмбеддинги: Забудьте про OpenAI API. Vera использует открытые модели, такие как BGE-M3 или Nomic Embed, преобразованные в ONNX для CPU/GPU инференса. Вы сами выбираете баланс между качеством и скоростью.
- MCP-сервер из коробки: Ваш агент (скажем, настроенный через архитектуру локальных агентов) просто подключается к Vera по протоколу MCP, как к любому другому инструменту — файловой системе или базе данных.
- Индексация на стероидах: Парсит 20+ языков программирования, учитывает структуру (функции, классы, импорты). Индекс в десятки раз меньше исходного кода.
Внимание на производительность: Vera написана на Rust, но ONNX Runtime — это все же C++. Если у вас старый CPU без поддержки AVX2, векторный поиск будет тормозить. Проверьте спецификации перед установкой.
Установка: пять минут, и вы в деле
1Ставим бинарник
Самый простой путь — через Cargo, если у вас установлен Rust (версия 1.80 или выше).
cargo install vera-mcp --version 2.1.0
Или скачайте готовый бинарник с GitHub Releases. Для Linux и macOS это одна команда, для Windows — .exe.
2Качаем модель
Vera не тащит за собой гигабайты весов. Она скачивает только то, что вы укажете. Создадим конфиг.
mkdir ~/.vera
cat > ~/.vera/config.yaml << 'EOF'
embedding_model: "BAAI/bge-m3-onnx" # Или "nomic-ai/nomic-embed-text-v2.5-onnx"
reranker_model: "BAAI/bge-reranker-v3.0-onnx"
onnx_provider: "cuda" # Или "cpu", если нет GPU
index_path: "~/.vera/index"
EOF
Затем запустите загрузку моделей. Это может занять время, но только один раз.
vera download-models
3Индексируем проект и подключаем к агенту
Перейдите в папку с вашим кодом и запустите индексацию.
cd /path/to/your/monorepo
vera index .
Теперь запустите MCP-сервер Vera. Он будет слушать localhost:8000.
vera serve
В конфиге вашего AI-агента (например, для Claude Desktop) добавьте ресурс MCP со ссылкой на этот сервер. Агент получит инструмент search_code и сможет им пользоваться.
Сравнительная таблица: Vera vs. мир
| Инструмент | Локальный | Поиск по смыслу | MCP | Сложность | Цена (2026) |
|---|---|---|---|---|---|
| Vera 2.1.0 | Да | Да (ONNX) | Родная поддержка | Низкая | Бесплатно (OSS) |
| Sourcegraph Cloud | Нет | Ограниченно | Через плагин | Средняя | От $15/мес |
| OpenGrok | Да | Нет (только regex) | Нет | Высокая | Бесплатно |
| Azure AI Search | Нет | Да (дорого) | Нет | Высокая | От $75/ГБ/мес |
Разница очевидна. Vera — единственный инструмент, который дает полный локальный семантический поиск с готовой интеграцией в экосистему AI агентов. OpenGrok — это прошлый век, облачные решения — дыра в бюджете и безопасности.
Живые примеры: как ваш агент будет искать код
Допустим, вы работаете над российским локальным агентом и хотите найти, как в коде обрабатываются ошибки аутентификации.
Агент (через MCP) отправляет в Vera запрос: "функция, которая проверяет OAuth-токен и возвращает ошибку, если срок действия истек".
Vera за миллисекунды делает следующее:
- Извлекает ключевые слова: "OAuth", "токен", "ошибка", "срок действия".
- Создает вектор эмбеддинга для всего запроса.
- Ищет по индексу: сначала BM25, потом векторный поиск.
- Ранжирует результаты с помощью cross-encoder, который понимает, что "проверяет токен" важнее, чем "возвращает ошибку".
- Возвращает агенту топ-5 фрагментов кода с путями файлов и номерами строк.
Агент получает конкретные примеры и пишет код, который не ломает существующую логику. Никаких галлюцинаций в стиле "40% галлюцинаций в задачах".
Кому впишется Vera в стек?
Если вы ответите "да" хотя бы на один пункт — этот инструмент для вас.
- Вы разрабатываете или используете локальных AI агентов и устали от задержек облачного поиска.
- Ваш код лежит в приватных репозиториях, и отправлять его куда-либо — нарушение политики безопасности.
- Вам нужна максимальная скорость: Vera обрабатывает запросы за 50-150 мс даже на больших индексах. Для сравнения, облачные аналоги — 700-2000 мс.
- Вы экспериментируете с архитектурами агентов, где низкая латентность критична.
- Вы не хотите платить за поиск по своему же коду.
Однако, если ваша кодовая база — это три файла на Python, Vera будет избыточна. Проще использовать grep.
Прогноз на 2027 год: та же команда, что стоит за Vera, анонсировала работу над плагином для swarm-агентов, подобных Swarmcore. Интеграция позволит распределенным агентам использовать общий индекс кода без центрального сервера.
Последний совет: не пытайтесь запустить Vera на Raspberry Pi со старым ARM-процессором. ONNX Runtime для ARM еще не так оптимизирован, и векторный поиск будет мучительно медленным. Берите нормальный x86 CPU или, еще лучше, GPU с поддержкой CUDA. Экономия на железе здесь обойдется часами ожидания.