Слухи или реальность? Что просочилось о Mistral 4
Вчера вечером, 15 марта 2026 года, на GitHub появился приватный репозиторий под названием 'mistral-next-internal'. Через час его удалили, но не раньше, чем несколько десятков человек успели сделать форк. Файлы внутри — конфигурации YAML, фрагменты кода обучения и, самое интересное, дорожная карта до конца года. Всё указывает на то, что мы впервые видим очертания Mistral 4.
Данные основаны на неподтвержденной утечке. Официального заявления от Mistral AI на момент публикации (16.03.2026) не было. Относитесь к информации скептически.
Утечка пришла в идеальный момент. Сообщество уже переварило выход Mistral 3 и ждет следующего большого хода от французов. Конкуренты не дремлют: OpenAI тихо тестирует GPT-5 в закрытой бете, а GLM-4.7 держит титул лучшей opensource-модели. Если в документах есть хоть доля правды, игра вот-вот станет серьезнее.
Семейство, а не одна модель: что показывают конфиги
Главный вывод из утечки — Mistral 4 это не одна модель. Это целое семейство, закодированное под кодовыми названиями 'Brise', 'Mistral' и 'Tempête' (что переводится как 'Шторм'). Звучит пафосно, но масштабы поражают.
| Кодовое имя | Оценочный размер (параметры) | Целевое применение | Планируемый релиз |
|---|---|---|---|
| Brise | 7B - 14B | Локальное выполнение, мобильные устройства | Q3 2026 |
| Mistral | 70B - 140B | Общего назначения, облачные API | Q4 2026 |
| Tempête | 1T+ (с упором на MoE) | Научные исследования, сверхсложные рассуждения | 2027 (?) |
Особенно интересна запись про 'Tempête'. Архитектура — Mixture of Experts, но с новой системой маршрутизации под кодовым названием 'Router-X'. В одном из комментариев инженер пишет: 'Старый подход — выбор эксперта. Наш — динамическое взвешивание всех экспертов для каждого токена'. Если это правда, мы увидим не просто масштабирование старой архитектуры Mistral Small 3, а качественный скачок в эффективности.
Контекст в 1 млн токенов и нативная мультимодальность: слишком хорошо, чтобы быть правдой?
В файле 'config_tempête.yaml' есть строчка, которая заставила сообщество вздрогнуть: context_length: 1048576. Миллион токенов. На сегодняшний день, 16 марта 2026, рекорд для коммерчески доступных моделей — 512K у некоторых кастомных сборок. Если Mistral AI действительно реализует стабильный контекст в 1M токенов, это перевернет работу с длинными документами, кодобазами и видео-транскриптами.
Но и это не всё. В той же дорожной карте под пунктом 'Q4 2026' значится: 'Интеграция нативного мультимодального кодера для Tempête. Цель — восприятие изображений, видео и аудио без оберток'. Прямой вызов GPT-5, который, по слухам, тоже будет изначально мультимодальным.
Проблема в том, что всё это звучит как рождественский список желаний айтишника, а не как реалистичный план разработки. Обучение такой модели потребует вычислительных ресурсов, сравнимых с бюджетом небольшой страны. Или у Mistral AI есть секретное оружие.
А что с эффективностью и квантованием? Старые трюки не пройдут
Интересно, что в утекших документах несколько раз упоминается новый формат квантования, совместимый с NVFP4 от NVIDIA и llama.cpp. Есть даже сравнение планируемых размеров файлов: 'Brise-7B в формате MXFP4 займет ~3.8 ГБ'. Это указывает на то, что команда серьезно думает о локальном развертывании с самого начала.
После нашего разбора битвы форматов MXFP4 против Q4_K_M стало ясно — будущее за специализированным квантованием под аппаратуру. Mistral, судя по всему, не хочет повторять ошибок прошлого, когда модели выпускались, а сообщество месяцами билось над их сжатием.
Напомним, что на текущий момент (16.03.2026) официально самой продвинутой открытой моделью от Mistral AI является Mistral 3 Large (123B). Все разговоры о Mistral 4 — пока лишь неподтвержденные слухи.
Что дальше? Ждать анонса или забыть как страшный сон
Утечки в AI-индустрии редко бывают случайными. Часто это умышленный 'слив' для проверки реакции сообщества или давления на конкурентов. Даже если 90% информации — фейк, сам факт обсуждения уже двигает рынок.
Мой прогноз? Команда Mistral AI вынуждена будет как-то отреагировать в ближайшие недели. Либо они опровергнут всё и назовут фейком, либо выпустят тизер, подтверждающий часть данных. Идеальный повод — крупная конференция вроде CVPR летом или NeurIPS осенью 2026.
А пока совет простой: не стройте далеко идущих планов вокруг непроверенных характеристик. Но присмотритесь к текущим инструментам. Если 'Brise' действительно будет 7B-моделью с контекстом в 200K, то те, кто уже сейчас экспериментирует с LLM на мобильных или борется с JSON-дрейфом в продакшене, окажутся в выигрыше. Готовьте инфраструктуру, тестируйте подходы. Когда новая модель все-таки выйдет, вы будете не просто ахать от размеров, а сможете запустить ее в работу первыми.
(И да, сохраните ссылки на этот GitHub — кто знает, что еще всплывет в ближайшие дни).