Mistral 4: утечка данных и характеристики новой LLM | 16.03.2026 | AiManual
AiManual Logo Ai / Manual.
16 Мар 2026 Новости

Mistral 4: первые данные об утечке и возможных характеристиках нового семейства моделей

Первые слухи о Mistral 4: что известно об утечке, возможных размерах модели и конкуренции с GPT-5. Актуально на март 2026.

Слухи или реальность? Что просочилось о Mistral 4

Вчера вечером, 15 марта 2026 года, на GitHub появился приватный репозиторий под названием 'mistral-next-internal'. Через час его удалили, но не раньше, чем несколько десятков человек успели сделать форк. Файлы внутри — конфигурации YAML, фрагменты кода обучения и, самое интересное, дорожная карта до конца года. Всё указывает на то, что мы впервые видим очертания Mistral 4.

Данные основаны на неподтвержденной утечке. Официального заявления от Mistral AI на момент публикации (16.03.2026) не было. Относитесь к информации скептически.

Утечка пришла в идеальный момент. Сообщество уже переварило выход Mistral 3 и ждет следующего большого хода от французов. Конкуренты не дремлют: OpenAI тихо тестирует GPT-5 в закрытой бете, а GLM-4.7 держит титул лучшей opensource-модели. Если в документах есть хоть доля правды, игра вот-вот станет серьезнее.

Семейство, а не одна модель: что показывают конфиги

Главный вывод из утечки — Mistral 4 это не одна модель. Это целое семейство, закодированное под кодовыми названиями 'Brise', 'Mistral' и 'Tempête' (что переводится как 'Шторм'). Звучит пафосно, но масштабы поражают.

Кодовое имяОценочный размер (параметры)Целевое применениеПланируемый релиз
Brise7B - 14BЛокальное выполнение, мобильные устройстваQ3 2026
Mistral70B - 140BОбщего назначения, облачные APIQ4 2026
Tempête1T+ (с упором на MoE)Научные исследования, сверхсложные рассуждения2027 (?)

Особенно интересна запись про 'Tempête'. Архитектура — Mixture of Experts, но с новой системой маршрутизации под кодовым названием 'Router-X'. В одном из комментариев инженер пишет: 'Старый подход — выбор эксперта. Наш — динамическое взвешивание всех экспертов для каждого токена'. Если это правда, мы увидим не просто масштабирование старой архитектуры Mistral Small 3, а качественный скачок в эффективности.

💡
MoE (Mixture of Experts) — архитектура, где модель состоит из множества 'экспертов', и для каждой задачи активируется только их часть. Это позволяет создавать огромные модели (триллионы параметров), которые остаются эффективными в вычислениях. Главная проблема — стабильность и сложность обучения.

Контекст в 1 млн токенов и нативная мультимодальность: слишком хорошо, чтобы быть правдой?

В файле 'config_tempête.yaml' есть строчка, которая заставила сообщество вздрогнуть: context_length: 1048576. Миллион токенов. На сегодняшний день, 16 марта 2026, рекорд для коммерчески доступных моделей — 512K у некоторых кастомных сборок. Если Mistral AI действительно реализует стабильный контекст в 1M токенов, это перевернет работу с длинными документами, кодобазами и видео-транскриптами.

Но и это не всё. В той же дорожной карте под пунктом 'Q4 2026' значится: 'Интеграция нативного мультимодального кодера для Tempête. Цель — восприятие изображений, видео и аудио без оберток'. Прямой вызов GPT-5, который, по слухам, тоже будет изначально мультимодальным.

Проблема в том, что всё это звучит как рождественский список желаний айтишника, а не как реалистичный план разработки. Обучение такой модели потребует вычислительных ресурсов, сравнимых с бюджетом небольшой страны. Или у Mistral AI есть секретное оружие.

А что с эффективностью и квантованием? Старые трюки не пройдут

Интересно, что в утекших документах несколько раз упоминается новый формат квантования, совместимый с NVFP4 от NVIDIA и llama.cpp. Есть даже сравнение планируемых размеров файлов: 'Brise-7B в формате MXFP4 займет ~3.8 ГБ'. Это указывает на то, что команда серьезно думает о локальном развертывании с самого начала.

После нашего разбора битвы форматов MXFP4 против Q4_K_M стало ясно — будущее за специализированным квантованием под аппаратуру. Mistral, судя по всему, не хочет повторять ошибок прошлого, когда модели выпускались, а сообщество месяцами билось над их сжатием.

Напомним, что на текущий момент (16.03.2026) официально самой продвинутой открытой моделью от Mistral AI является Mistral 3 Large (123B). Все разговоры о Mistral 4 — пока лишь неподтвержденные слухи.

Что дальше? Ждать анонса или забыть как страшный сон

Утечки в AI-индустрии редко бывают случайными. Часто это умышленный 'слив' для проверки реакции сообщества или давления на конкурентов. Даже если 90% информации — фейк, сам факт обсуждения уже двигает рынок.

Мой прогноз? Команда Mistral AI вынуждена будет как-то отреагировать в ближайшие недели. Либо они опровергнут всё и назовут фейком, либо выпустят тизер, подтверждающий часть данных. Идеальный повод — крупная конференция вроде CVPR летом или NeurIPS осенью 2026.

А пока совет простой: не стройте далеко идущих планов вокруг непроверенных характеристик. Но присмотритесь к текущим инструментам. Если 'Brise' действительно будет 7B-моделью с контекстом в 200K, то те, кто уже сейчас экспериментирует с LLM на мобильных или борется с JSON-дрейфом в продакшене, окажутся в выигрыше. Готовьте инфраструктуру, тестируйте подходы. Когда новая модель все-таки выйдет, вы будете не просто ахать от размеров, а сможете запустить ее в работу первыми.

(И да, сохраните ссылки на этот GitHub — кто знает, что еще всплывет в ближайшие дни).

Подписаться на канал