Модель, которая забыла слово "нет"
Представьте нейросеть, которая никогда не отказывается отвечать. Ни на один, даже самый странный или этически сомнительный запрос. Qwen3.5-9B-abliterated – именно такая. Это модифицированная версия стандартной Qwen3.5-9B, где с помощью ортогональной проекции и LoRA тонкой настройки полностью вырезали механизм отказов. И заодно добавили поддержку зрения. Результат? Модель, которая смотрит на картинку и описывает её, не задумываясь, можно ли об этом говорить.
Из лаборатории в ваш терминал
Модель появилась не просто так. Сообщество устало от цензуры и ограничений в коммерческих моделях. В 2025 году методология совмещения ортогональной проекции для удаления отказов и LoRA-адаптеров для добавления мультимодальности стала популярным трендом. Для Qwen3.5-9B это дало почти магический эффект: 0% refusal rate при сохранении базовых способностей к рассуждению и новому vision-модулю.
1 Качаем и запускаем
Вся магия упакована в один файл GGUF. Для работы с ним нужен Ollama последней версии (на март 2026 это 0.6.0 или новее). Если у вас старый Ollama – обновите. Потому что в новых версиях наконец-то починили работу с vision-моделями на некоторых видеокартах NVIDIA серии 50xx.
ollama pull abliterated/qwen3.5-9b-gguf:vision-v1.0Если Ollama упорно не видит вашу видеокарту, не паникуйте. Это частая проблема, и её решение есть в нашем гиде по диагностике.
2 Проверяем зрение
Запускаем модель и подаём ей изображение. Можно через API Ollama или прямо в командной строке.
ollama run abliterated/qwen3.5-9b-gguf:vision-v1.0А внутри чата отправляем промпт с изображением. Модель его «увидит» и ответит. Никаких дополнительных танцев с бубном, как в старых методах для включения зрения в Qwen 3.5, не требуется.
Чем abliterated круче оригинала? Сравнительная таблица
| Модель | Отказы | Зрение | Размер (GGUF q4_0) | Что не так |
|---|---|---|---|---|
| Qwen3.5-9B-abliterated | 0% | Да | ~6.5 GB | Может быть слишком откровенной |
| Оригинальный Qwen3.5-9B-Instruct | Высокий | Нет | ~5 GB | Постоянно учит этике |
| Qwen3-VL-7B (официальная) | Средний | Да | ~4.5 GB | Склонна к галлюцинациям в tool-calls |
Что с ней делать? Два живых примера
1. Анализ UI/UX скриншота. Загрузите картинку интерфейса и спросите: «Что не так с кнопкой отправки на этом экране?». Модель опишет контраст, расположение, текст. Без всяких «я не могу давать оценочные суждения».
2. Чат без границ. Спросите её о чём угодно. Она ответит. Это делает её идеальным инструментом для исследований, тестирования границ моделей или для тех, кто хочет обойти привычные блокировки в диалоге с ИИ.
Кому она зайдёт, а кому нет?
Берите, если вы:
- Исследователь, тестирующий поведение LLM.
- Разработчик, которому нужен «послушный» vision-ассистент для внутренних задач без цензуры.
- Энтузиаст, собирающий коллекцию специфичных моделей для локального запуска.
Обходите стороной, если:
- Вам нужна безопасная, предсказуемая модель для публичного чат-бота.
- Вы ищете максимальную точность в ответах по коду (тут лучше Qwen3-Coder-Next).
- Ваш ПК едва тянет 7B модели – здесь 9B параметров плюс overhead для зрения.
Qwen3.5-9B-abliterated – это эксперимент, вырвавшийся на свободу. Она не для каждого дня, но когда нужен абсолютно прямой ответ на вопрос или анализ картинки без прикрас – альтернатив почти нет. Держите её в арсенале, но помните: сила, которая убрала все ограничения, не спрашивает, готовы ли вы к последствиям.
Скачать модель можно с Hugging Face, а сам Ollama – с официального сайта.