Mistral 3 обзор: тесты, HF коллекция, технический отчёт | AiManual
AiManual Logo Ai / Manual.
15 Янв 2026 Инструмент

Mistral 3: когда французы перестали скромничать

Полный разбор Mistral 3 от Mistral AI: где скачать модели на HuggingFace, как работает архитектура, сравнение с Llama 3.3 и Gemini.

Французский ответ на американский шум

Mistral AI всегда играла в свою игру. Пока OpenAI кричала о GPT-5, а Meta выпускала Llama 3, французы методично делали модели, которые работают. Теперь они выпустили Mistral 3 — и это не просто обновление. Это заявление.

Все модели Mistral 3 уже доступны на HuggingFace в коллекции mistralai. Никаких waitlist, никаких закрытых бета-тестов — скачивай и используй.

Что внутри у этой штуки

Технический отчёт на arXiv читается как детектив. 124 страницы, где каждая вторая — про то, как они обошли конкурентов. Основные фишки:

  • Новая архитектура attention — в 1.8 раза эффективнее при том же качестве
  • Контекстное окно расширили до 256К токенов (да, вы не ослышались)
  • Мультимодальность из коробки — обрабатывает текст, изображения, аудио
  • Поддержка инструментов и вызовов функций без дополнительной настройки

Самое смешное: они не стали гнаться за параметрами. Базовая модель — 70B, но есть варианты поменьше. Потому что знают — не размер делает модель умной, а архитектура.

Сравнение: кто кого

Вот таблица, которая всё объясняет лучше тысячи слов:

Модель Размер MMLU Особенность
Mistral 3 70B 70B 84.3 Мультимодальность из коробки
Llama 3.3 8B 8B 78.1 Компактность
Gemini 3 Flash N/A 82.7 Скорость
Ministral 3 3B/8B/14B 76.8 (14B) Для локального запуска

Цифры говорят сами за себя. Mistral 3 бьёт по всем фронтам, кроме размера. Но кто сказал, что размер — это главное?

Где это реально использовать

Сценариев — масса. Вот самые очевидные:

  • Анализ документов. 256К контекста — это полная книга. Можно загрузить техническую документацию и задавать вопросы по ней.
  • Мультимодальные задачи. Изображение + текст = осмысленный ответ. Не как в Mistral OCR 3, где нужно было отдельно обрабатывать текст, а сразу всё вместе.
  • Разработка. Поддержка вызова функций делает её идеальной для создания агентов.
  • Локальный запуск. Варианты поменьше (особенно если смотреть на компактные модели для локального запуска) работают на потребительском железе.

Внимание: мультимодальность требует GPU с хорошей памятью. На 8GB VRAM можно забыть про 70B версию.

Как скачать и запустить

Тут всё просто. Заходишь на HuggingFace в коллекцию mistralai. Выбираешь нужную модель. Качаешь.

Для локального запуска лучше использовать router mode в llama.cpp — можно переключаться между моделями без перезагрузки. Или, если хочется чего-то совсем простого, посмотри на Liquid AI LFM2-2.6B — она меньше, но тоже неплохо работает.

Кому это надо

Разработчикам, которые устали от ограничений OpenAI API. Исследователям, которым нужна прозрачная модель с открытым отчётом. Компаниям, которые хотят развернуть всё у себя — без облаков и лишних зависимостей.

Студентам и энтузиастам тоже подойдёт — варианты поменьше работают на ноутбуках. Хотя, честно говоря, если у вас MacBook с 8GB RAM, лучше посмотрите на LFM2.5 1.2B Instruct — она специально для таких случаев.

Что дальше

Mistral AI показала, что можно делать модели мирового уровня без миллиардных инвестиций от Microsoft. Технический отчёт на arXiv — это вызов всей индустрии. «Смотрите, как мы это сделали. Повторите, если сможете».

Ожидайте, что через месяц появятся GGUF версии для llama.cpp. Через два — квантованные варианты для телефонов. А через три — кто-нибудь сделает fine-tune на русских данных. Потому что открытая модель — это как конструктор: можно модифицировать под свои нужды.

Главный совет: не гонитесь за самой большой моделью. Возьмите ту, которая решает вашу задачу. Иногда 8B с хорошей архитектурой лучше, чем 70B с плохой. Mistral 3 это доказала.