Ministral 3 uncensored с Vision: обзор квантований GGUF и установка | AiManual
AiManual Logo Ai / Manual.
18 Янв 2026 Инструмент

Ministral 3 без цензуры и с глазами: как запустить разблокированную визуальную модель на домашнем железе

Полный гайд по запуску разблокированной Ministral 3 с поддержкой Vision. Сравнение квантований Q4, Q5, Q8, BF16 для моделей 4B, 8B, 14B. Установка через Hugging

Цензура? Нет, не слышали. Ministral 3 с Vision выходит из тени

Помните официальную Ministral 3? Умная, быстрая, но... стерильная. Как будто разговариваешь с корпоративным HR-ботом, который боится сказать что-то не то. Теперь это в прошлом. На Hugging Face появилась коллекция разблокированных (uncensored) версий Ministral 3 с полноценной поддержкой Vision. И да, все это в удобных GGUF-квантованиях, готовых к запуску на вашей видеокарте или даже CPU.

Это не просто очередная "разблокированная" модель с удаленным системным промптом. Авторы провели дополнительное обучение на нефильтрованных данных, чтобы модель не только перестала бояться "опасных" тем, но и научилась рассуждать более свободно и творчески. А визуальный компонент (MMPROJ) превращает ее из простого чат-бота в аналитика, который может "видеть" и описывать изображения, диаграммы, скриншоты кода.

💡
Ключевое отличие от обычной Ministral 3 Vision — отсутствие встроенных фильтров контента. Модель не будет отказываться обсуждать спорные темы, писать креативный контент или анализировать изображения с потенциально "чувствительным" содержанием. Это инструмент, а не нянька.

Что в коробке? Выбираем модель и квантование под свое железо

Коллекция на Hugging Face — это не одна модель, а целый конструктор. Нужно выбрать два основных параметра: размер модели и степень квантования. От этого зависит, будет ли модель летать на вашей RTX 4060 или еле ползти на интегрированной графике.

МодельПараметрыКому подойдетОриентировочная VRAM
Ministral-3B-Instruct-Uncensored-Vision3.2BВладельцам слабых GPU (GTX 1660, RTX 3050), CPU-энтузиастамот 3 ГБ (Q4)
Ministral-8B-Instruct-Uncensored-Vision8.4BОбладателям RTX 4060 Ti / 4070, кто хочет баланс скорости и качестваот 6 ГБ (Q4)
Ministral-14B-Instruct-Uncensored-Vision14.4BСчастливчикам с RTX 4080/4090 или 16+ ГБ VRAMот 10 ГБ (Q4)

С квантованиями все еще интереснее. Q4_K_M — это золотая середина для большинства. Почти не теряем в качестве, но экономим гигабайты памяти. Q5_K_M — для перфекционистов, которые готовы пожертвовать 1-2 ГБ VRAM ради чуть более точных ответов. Q8 и BF16 — это уже для тех, у кого память лишняя или кто собирается дообучать модель. Для обычного чата и анализа картинок Q4 более чем достаточно.

Не гонитесь за 14B-версией, если у вас 8 ГБ VRAM. Даже с Q4 она может не влезть полностью, и llama.cpp начнет сбрасывать слои в оперативку, что убьет скорость. Лучше стабильно быстрая 8B, чем "тормозящая" 14B. Проверено на RTX 3070.

Альтернативы? Их почти нет, и вот почему

Можно, конечно, взять обычную Ministral 3 и попытаться ее "разблокировать" через хитромудрые промпты. Но это как пытаться уговорить охранника пропустить вас на закрытую территорию. Модель обучена отказываться, и ее внутренние ограничения сильнее ваших слов.

Другие разблокированные модели с Vision? Qwen3 VL иногда выдает бред при анализе сложных изображений. LLaVA-Next требует больше ресурсов для сопоставимого качества. А уж про специализированные разблокированные LLM без зрения и говорить нечего — они слепые.

Ministral 3 Uncensored Vision — это уникальный гибрид: компактная архитектура Mistral (отсюда и скорость), качественный визуальный энкодер и отсутствие цензурных зажимов. Такого сочетания на рынке локальных моделей сейчас просто нет.

Запускаем за 10 минут: инструкция без воды

1Качаем правильные файлы

Идем на Hugging Face в коллекцию моделей. Нам нужно скачать ДВА файла для выбранной версии (например, 8B-Q4):

  • Основная модель: Ministral-8B-Instruct-Uncensored-Vision-Q4_K_M.gguf
  • Визуальный проектор (MMPROJ): Ministral-8B-Instruct-Uncensored-Vision.mmproj.gguf

Без mmproj-файла модель будет работать как обычный текстовый чат-бот, без зрения. Это самая частая ошибка.

2Ставим llama.cpp с поддержкой Vision

Не любой llama.cpp сгодится. Нужна сборка с включенной поддержкой Vision. Самый простой способ — использовать готовые бинарники от проекта или собрать из исходников с флагом -DLLAMA_BUILD_EXAMPLES=ON.

Если вы уже используете оболочки вроде Ollama или LM Studio, проверьте, поддерживают ли они загрузку внешних GGUF-файлов и передачу mmproj. Часто проще запустить через оригинальный llama.cpp, чтобы не было "сюрпризов".

3Запускаем и тестируем

Команда запуска будет выглядеть примерно так (подставьте свои пути):

./llama-cli -m ./Ministral-8B-Instruct-Uncensored-Vision-Q4_K_M.gguf \
--mmproj ./Ministral-8B-Instruct-Uncensored-Vision.mmproj.gguf \
--image "./test_image.png" \
-p "Опиши, что ты видишь на этом изображении. Будь максимально подробным."

Если все сделано правильно, модель начнет генерировать описание картинки. Попробуйте загрузить что-то сложное: схему архитектуры, мем с текстом, скриншот интерфейса. Именно здесь видна разница с цензурированными аналогами — модель не станет избегать описания потенциально "проблемного" контента на изображении.

Для кого эта модель — и для кого нет

Берите Ministral 3 Uncensored Vision, если:

  • Нужен локальный ассистент для анализа скриншотов, диаграмм, фотографий без ограничений по темам.
  • Хочется экспериментировать с генерацией креативного контента по изображениям (описания для артов, идей для комиксов).
  • Вы исследователь или разработчик, которому нужна "чистая" модель без встроенных фильтров для тестов.
  • Устали от того, что Claude Code и ему подобные отказываются анализировать ваш код под предлогом "безопасности".

Обходите стороной, если:

  • Нужна исключительно текстовая модель для программирования — тогда лучше взять специализированную код-модель.
  • Требуется работа с гигантским контекстом — у Ministral 3 стандартные 8-32к токенов, для 100к+ смотрите в сторону Mistral Vibe.
  • Вы планируете использовать модель в коммерческом продукте без глубокого понимания рисков нефильтрованных выводов.

Что будет дальше? Прогноз от того, кто уже запустил

Такие разблокированные сборки — не аномалия, а тренд. Сообщество устало от моделей-«сиделок». В ближайшие месяцы мы увидим аналогичные "uncensored" версии для других мультимодальных моделей. Проблема будет только одна: где брать вычислительные ресурсы. Ведь если сегодня 14B-модель с Vision — удел топовых видеокарт, то завтра появятся 30B-версии, и тут уже придется думать о техниках запуска гигантов на домашнем железе.

Совет напоследок: начните с 8B-Q4. Скачайте, запустите, загрузите ей скриншот этой статьи. И спросите, что она думает о будущем локальных AI-моделей. Ответ может удивить. Особенно потому, что его не будет цензурировать корпоративный фильтр.