Qwen3.5-9B-abliterated: модель без отказов с зрением в Ollama | AiManual
AiManual Logo Ai / Manual.
03 Мар 2026 Инструмент

Qwen3.5-9B-abliterated: как запустить модель с 0% отказов и поддержкой зрения в Ollama

Запустите Qwen3.5-9B-abliterated в Ollama: 0% отказов, поддержка изображений, ортогональная проекция и LoRA. Гайд по установке и использованию.

Модель, которая забыла слово "нет"

Представьте нейросеть, которая никогда не отказывается отвечать. Ни на один, даже самый странный или этически сомнительный запрос. Qwen3.5-9B-abliterated – именно такая. Это модифицированная версия стандартной Qwen3.5-9B, где с помощью ортогональной проекции и LoRA тонкой настройки полностью вырезали механизм отказов. И заодно добавили поддержку зрения. Результат? Модель, которая смотрит на картинку и описывает её, не задумываясь, можно ли об этом говорить.

💡
Ортогональная проекция – это метод редактирования весов модели, который позволяет целенаправленно "вычитать" из неё нежелательное поведение (например, склонность отказываться от ответов), минимально затрагивая остальные знания.

Из лаборатории в ваш терминал

Модель появилась не просто так. Сообщество устало от цензуры и ограничений в коммерческих моделях. В 2025 году методология совмещения ортогональной проекции для удаления отказов и LoRA-адаптеров для добавления мультимодальности стала популярным трендом. Для Qwen3.5-9B это дало почти магический эффект: 0% refusal rate при сохранении базовых способностей к рассуждению и новому vision-модулю.

1 Качаем и запускаем

Вся магия упакована в один файл GGUF. Для работы с ним нужен Ollama последней версии (на март 2026 это 0.6.0 или новее). Если у вас старый Ollama – обновите. Потому что в новых версиях наконец-то починили работу с vision-моделями на некоторых видеокартах NVIDIA серии 50xx.

ollama pull abliterated/qwen3.5-9b-gguf:vision-v1.0

Если Ollama упорно не видит вашу видеокарту, не паникуйте. Это частая проблема, и её решение есть в нашем гиде по диагностике.

2 Проверяем зрение

Запускаем модель и подаём ей изображение. Можно через API Ollama или прямо в командной строке.

ollama run abliterated/qwen3.5-9b-gguf:vision-v1.0

А внутри чата отправляем промпт с изображением. Модель его «увидит» и ответит. Никаких дополнительных танцев с бубном, как в старых методах для включения зрения в Qwen 3.5, не требуется.

Чем abliterated круче оригинала? Сравнительная таблица

МодельОтказыЗрениеРазмер (GGUF q4_0)Что не так
Qwen3.5-9B-abliterated0%Да~6.5 GBМожет быть слишком откровенной
Оригинальный Qwen3.5-9B-InstructВысокийНет~5 GBПостоянно учит этике
Qwen3-VL-7B (официальная)СреднийДа~4.5 GBСклонна к галлюцинациям в tool-calls

Что с ней делать? Два живых примера

1. Анализ UI/UX скриншота. Загрузите картинку интерфейса и спросите: «Что не так с кнопкой отправки на этом экране?». Модель опишет контраст, расположение, текст. Без всяких «я не могу давать оценочные суждения».

2. Чат без границ. Спросите её о чём угодно. Она ответит. Это делает её идеальным инструментом для исследований, тестирования границ моделей или для тех, кто хочет обойти привычные блокировки в диалоге с ИИ.

⚠️
Модель с 0% отказов – это обоюдоострый меч. Она может генерировать контент, который вы не ожидаете. Используйте её осознанно и в контролируемой среде.

Кому она зайдёт, а кому нет?

Берите, если вы:

  • Исследователь, тестирующий поведение LLM.
  • Разработчик, которому нужен «послушный» vision-ассистент для внутренних задач без цензуры.
  • Энтузиаст, собирающий коллекцию специфичных моделей для локального запуска.

Обходите стороной, если:

  • Вам нужна безопасная, предсказуемая модель для публичного чат-бота.
  • Вы ищете максимальную точность в ответах по коду (тут лучше Qwen3-Coder-Next).
  • Ваш ПК едва тянет 7B модели – здесь 9B параметров плюс overhead для зрения.

Qwen3.5-9B-abliterated – это эксперимент, вырвавшийся на свободу. Она не для каждого дня, но когда нужен абсолютно прямой ответ на вопрос или анализ картинки без прикрас – альтернатив почти нет. Держите её в арсенале, но помните: сила, которая убрала все ограничения, не спрашивает, готовы ли вы к последствиям.

Скачать модель можно с Hugging Face, а сам Ollama – с официального сайта.

Подписаться на канал