Цензура? Нет, не слышали. Ministral 3 с Vision выходит из тени
Помните официальную Ministral 3? Умная, быстрая, но... стерильная. Как будто разговариваешь с корпоративным HR-ботом, который боится сказать что-то не то. Теперь это в прошлом. На Hugging Face появилась коллекция разблокированных (uncensored) версий Ministral 3 с полноценной поддержкой Vision. И да, все это в удобных GGUF-квантованиях, готовых к запуску на вашей видеокарте или даже CPU.
Это не просто очередная "разблокированная" модель с удаленным системным промптом. Авторы провели дополнительное обучение на нефильтрованных данных, чтобы модель не только перестала бояться "опасных" тем, но и научилась рассуждать более свободно и творчески. А визуальный компонент (MMPROJ) превращает ее из простого чат-бота в аналитика, который может "видеть" и описывать изображения, диаграммы, скриншоты кода.
Что в коробке? Выбираем модель и квантование под свое железо
Коллекция на Hugging Face — это не одна модель, а целый конструктор. Нужно выбрать два основных параметра: размер модели и степень квантования. От этого зависит, будет ли модель летать на вашей RTX 4060 или еле ползти на интегрированной графике.
| Модель | Параметры | Кому подойдет | Ориентировочная VRAM |
|---|---|---|---|
| Ministral-3B-Instruct-Uncensored-Vision | 3.2B | Владельцам слабых GPU (GTX 1660, RTX 3050), CPU-энтузиастам | от 3 ГБ (Q4) |
| Ministral-8B-Instruct-Uncensored-Vision | 8.4B | Обладателям RTX 4060 Ti / 4070, кто хочет баланс скорости и качества | от 6 ГБ (Q4) |
| Ministral-14B-Instruct-Uncensored-Vision | 14.4B | Счастливчикам с RTX 4080/4090 или 16+ ГБ VRAM | от 10 ГБ (Q4) |
С квантованиями все еще интереснее. Q4_K_M — это золотая середина для большинства. Почти не теряем в качестве, но экономим гигабайты памяти. Q5_K_M — для перфекционистов, которые готовы пожертвовать 1-2 ГБ VRAM ради чуть более точных ответов. Q8 и BF16 — это уже для тех, у кого память лишняя или кто собирается дообучать модель. Для обычного чата и анализа картинок Q4 более чем достаточно.
Не гонитесь за 14B-версией, если у вас 8 ГБ VRAM. Даже с Q4 она может не влезть полностью, и llama.cpp начнет сбрасывать слои в оперативку, что убьет скорость. Лучше стабильно быстрая 8B, чем "тормозящая" 14B. Проверено на RTX 3070.
Альтернативы? Их почти нет, и вот почему
Можно, конечно, взять обычную Ministral 3 и попытаться ее "разблокировать" через хитромудрые промпты. Но это как пытаться уговорить охранника пропустить вас на закрытую территорию. Модель обучена отказываться, и ее внутренние ограничения сильнее ваших слов.
Другие разблокированные модели с Vision? Qwen3 VL иногда выдает бред при анализе сложных изображений. LLaVA-Next требует больше ресурсов для сопоставимого качества. А уж про специализированные разблокированные LLM без зрения и говорить нечего — они слепые.
Ministral 3 Uncensored Vision — это уникальный гибрид: компактная архитектура Mistral (отсюда и скорость), качественный визуальный энкодер и отсутствие цензурных зажимов. Такого сочетания на рынке локальных моделей сейчас просто нет.
Запускаем за 10 минут: инструкция без воды
1Качаем правильные файлы
Идем на Hugging Face в коллекцию моделей. Нам нужно скачать ДВА файла для выбранной версии (например, 8B-Q4):
- Основная модель:
Ministral-8B-Instruct-Uncensored-Vision-Q4_K_M.gguf - Визуальный проектор (MMPROJ):
Ministral-8B-Instruct-Uncensored-Vision.mmproj.gguf
Без mmproj-файла модель будет работать как обычный текстовый чат-бот, без зрения. Это самая частая ошибка.
2Ставим llama.cpp с поддержкой Vision
Не любой llama.cpp сгодится. Нужна сборка с включенной поддержкой Vision. Самый простой способ — использовать готовые бинарники от проекта или собрать из исходников с флагом -DLLAMA_BUILD_EXAMPLES=ON.
Если вы уже используете оболочки вроде Ollama или LM Studio, проверьте, поддерживают ли они загрузку внешних GGUF-файлов и передачу mmproj. Часто проще запустить через оригинальный llama.cpp, чтобы не было "сюрпризов".
3Запускаем и тестируем
Команда запуска будет выглядеть примерно так (подставьте свои пути):
./llama-cli -m ./Ministral-8B-Instruct-Uncensored-Vision-Q4_K_M.gguf \
--mmproj ./Ministral-8B-Instruct-Uncensored-Vision.mmproj.gguf \
--image "./test_image.png" \
-p "Опиши, что ты видишь на этом изображении. Будь максимально подробным."
Если все сделано правильно, модель начнет генерировать описание картинки. Попробуйте загрузить что-то сложное: схему архитектуры, мем с текстом, скриншот интерфейса. Именно здесь видна разница с цензурированными аналогами — модель не станет избегать описания потенциально "проблемного" контента на изображении.
Для кого эта модель — и для кого нет
Берите Ministral 3 Uncensored Vision, если:
- Нужен локальный ассистент для анализа скриншотов, диаграмм, фотографий без ограничений по темам.
- Хочется экспериментировать с генерацией креативного контента по изображениям (описания для артов, идей для комиксов).
- Вы исследователь или разработчик, которому нужна "чистая" модель без встроенных фильтров для тестов.
- Устали от того, что Claude Code и ему подобные отказываются анализировать ваш код под предлогом "безопасности".
Обходите стороной, если:
- Нужна исключительно текстовая модель для программирования — тогда лучше взять специализированную код-модель.
- Требуется работа с гигантским контекстом — у Ministral 3 стандартные 8-32к токенов, для 100к+ смотрите в сторону Mistral Vibe.
- Вы планируете использовать модель в коммерческом продукте без глубокого понимания рисков нефильтрованных выводов.
Что будет дальше? Прогноз от того, кто уже запустил
Такие разблокированные сборки — не аномалия, а тренд. Сообщество устало от моделей-«сиделок». В ближайшие месяцы мы увидим аналогичные "uncensored" версии для других мультимодальных моделей. Проблема будет только одна: где брать вычислительные ресурсы. Ведь если сегодня 14B-модель с Vision — удел топовых видеокарт, то завтра появятся 30B-версии, и тут уже придется думать о техниках запуска гигантов на домашнем железе.
Совет напоследок: начните с 8B-Q4. Скачайте, запустите, загрузите ей скриншот этой статьи. И спросите, что она думает о будущем локальных AI-моделей. Ответ может удивить. Особенно потому, что его не будет цензурировать корпоративный фильтр.