Тихие, но смертоносные: как stealth-модели MiMo V2 просочились в Openrouter
Openrouter, платформа, которая собрала почти все значимые LLM в одном API, вдруг оказалась домом для моделей, которых официально нет. Вы не найдете их в документации, но они работают – и чертовски хорошо.
Stealth-модели – это скрытые эндпоинты, доступные через API Openrouter, но не анонсированные публично. Разработчики тестируют их в боевых условиях, а пользователи получают ранний доступ к технологиям завтрашнего дня.
Речь о Hunter Alpha и Healer Alpha – двух моделях на архитектуре MiMo V2, которые появились в сети Openrouter в начале марта 2026 года. Контекстное окно до 1 миллиона токенов, специализация на текстовом рассуждении и полная анонимность создателей. (Кто это сделал? Вероятно, те же ребята, что выпустили MiMo-V2-Flash).
Hunter Alpha и Healer Alpha: цифры и факты
Обе модели – чистые наследники архитектуры MiMo V2, которая, если коротко, это Mixture of Mixtures of Experts. Грубо говоря, эксперты внутри экспертов. Такая структура, популярная у китайских разработчиков (вспомните DeepSeek или MiniMax), позволяет эффективно масштабироваться и специализироваться на разных типах задач.
| Модель | Контекстное окно | Специализация | Статус на 18.03.2026 |
|---|---|---|---|
| Hunter Alpha | 1M токенов | Анализ, извлечение данных, поиск несоответствий | Stealth, доступ по флагу в API |
| Healer Alpha | 1M токенов | Генерация, исправление, синтез текста | Stealth, доступ по флагу в API |
Чем они реально отличаются? Hunter Alpha заточен под «охоту» – он сканирует гигантские тексты, находит паттерны, вытаскивает нужные факты. Healer Alpha – «лекарь», он берет сырой или поврежденный текст и делает его связным, исправляет логические ошибки, дописывает. Вместе они образуют пару для сложного текстового конвейера.
Почему это важно прямо сейчас?
Потому что это подтверждает тренд: открытые веса и специализированные архитектуры выигрывают у универсальных монолитов. Пока GPT-5 и Gemini Ultra 2 соревнуются в размере параметров, нишевые модели вроде MiMo V2 бьют их на конкретных бенчмарках с меньшими затратами. Мы это уже видели в топе Openrouter.
Stealth-релиз – это хитрая тактика. Создатели обкатывают модели на реальных пользователях, собирают метрики, но избегают хайпа и завышенных ожиданий. Если что-то пойдет не так, модель просто тихо исчезнет, как случилось с MiniMax M2-her.
Что будет дальше? (Спойлер: больше stealth)
Официального анонса MiMo V2 от создателей Hunter/Healer Alpha пока нет. Но логика подсказывает:
- Публичный релиз: Через месяц-два мы увидим официальную модель MiMo V2, возможно, под другим именем. Она будет доработанной версией текущих альф.
- Новые «профессии»: Появятся stealth-модели для других задач – кодинга (а-ля MiniMax M2.1), математики, может, даже для мультимодальности.
- Интеграция в инструменты: Управлять такими гигантскими моделями с длинным контекстом станет проще с техниками вроде Router Mode в llama.cpp.
Внимание: доступ к stealth-моделям нестабилен. Сегодня они есть, завтра – нет. Цены могут скакать, а производительность – меняться без предупреждения. Не стройте на них критически важные продакшен-процессы.
Итог: стоит ли гнаться за призраком?
Если ваша задача – анализ огромных документов или глубокая работа с текстом, попробовать Hunter/Healer Alpha через Openrouter API стоит. Это шанс потестировать технологию завтрашнего дня сегодня.
Но если вам нужно просто написать письмо или сгенерировать пост – вы не заметите разницы с обычной GPT-4.5 Turbo. 1M контекст – это мощно, но и дорого. Иногда лучше взять модель, которая «съедает 128 котлет, но переваривает только две», как Mistral Small 4, и не париться.
Мой прогноз: к концу 2026 года stealth-тестирование станет стандартной практикой для всех крупных игроков. А мы, пользователи, будем как шпионы, ищущие секретные эндпоинты с next-gen AI. Удачи на охоте.