Сравнение GPT-OSS-120B, MiniMax-2.1, GLM-4.7 для кодинга на RTX 3060 12GB | AiManual
AiManual Logo Ai / Manual.
16 Янв 2026 Гайд

Кодинг на RTX 3060 12GB: GPT-OSS-120B, MiniMax-2.1 и GLM-4.7 — кто реально пишет код, а кто жрёт память?

Практический тест: какая модель лучше пишет код на RTX 3060 12GB. Сравнение квантований REAP-40, q3, производительности и качества кода.

12 гигабайт — это много или мало? Реальность против маркетинга

RTX 3060 12GB — странная карта. У неё больше VRAM, чем у RTX 3070. Меньше производительности, чем у RTX 4060. Но она есть у половины разработчиков, которые купили её в 2021-2022 годах. И теперь эти 12 гигабайт — одновременно и много, и мало.

Много для игр. Мало для современных LLM. Особенно если хочется запустить что-то серьёзнее семимиллиардной модели.

Забудьте про запуск полноразмерных 70B моделей без квантования. На RTX 3060 12GB это физически невозможно. Даже с квантованием Q4 — модель займёт около 40GB. Ваша задача — не запихнуть невпихуемое, а найти оптимальный баланс между размером, качеством и скоростью.

Три претендента: кто они и зачем нужны

Перед нами три совершенно разных подхода к кодингу:

Модель Размер Философия Главный козырь
GPT-OSS-120B 120 миллиардов параметров Брутальная сила. Больше параметров = лучше понимание Контекстное понимание сложных задач
MiniMax-2.1 32B (M2 Pro) или 72B (M2 Ultra) Специализация на коде. Оптимизирована под SWE-bench Практические результаты на реальных бенчмарках
GLM-4.7-REAP 7B, 14B, 72B варианты Агрессивное квантование. Работа там, где другие не влазят REAP-40 — 40% от размера с минимальной деградацией

Каждая из этих моделей претендует на звание "лучшей для кодинга". Но на RTX 3060 их судьбы складываются по-разному.

Квантование — не магия, а компромисс. Иногда болезненный

Все говорят про квантование. Мало кто понимает, что теряется на самом деле.

REAP-40 от GLM — это не просто "сжатие в 2.5 раза". Это хирургическое удаление наименее значимых весов. В теории — гениально. На практике — модель начинает путаться в сложном синтаксисе.

💡
Квантование Q3 (3-битное) против REAP-40 — это спор двух подходов. Q3 равномерно сжимает все веса, теряя немного везде. REAP-40 вырезает "слабые" связи, сохраняя "сильные". Для кодинга REAP часто работает лучше — потому что понимание синтаксиса зависит от небольшого числа критических нейронов.

GPT-OSS-120B в Q4 — это уже 40-45GB. На RTX 3060 такой монстр не поместится даже с вытеснением в RAM. Результат — 1-2 токена в секунду и грохот кулера.

Тестовый стенд: не синтетика, а реальные задачи

Я не запускал бенчмарки с абстрактными "напиши функцию сортировки". Взял три задачи, которые реально возникают в работе:

  1. Рефакторинг legacy кода: функция на C++ из 2005 года, нужно адаптировать под современный стандарт, сохранив логику
  2. Написание тестов: дал класс с 5 методами, попросил покрыть edge cases
  3. Поиск утечки памяти: фрагмент кода с неочевидной проблемой, нужно найти и объяснить

Железо:

  • RTX 3060 12GB (самая обычная, не Ti)
  • Ryzen 5 5600X
  • 32GB DDR4 3200MHz
  • NVMe SSD для загрузки моделей

Софт: llama.cpp последней версии с CUDA бэкендом. Все модели в формате GGUF.

GPT-OSS-120B: слон в посудной лавке

Попытка номер один: GPT-OSS-120B-q4_k_m. Размер файла — 42GB.

# Команда запуска
./main -m gpt-oss-120b-q4_k_m.gguf -n 512 --temp 0.7 \
--gpu-layers 40 -c 4096 -ngl 40

Результат предсказуем: модель загрузила 10GB в VRAM, остальное ушло в RAM. Скорость — 1.8 токена в секунду. Вентиляторы взвыли как при майнинге в 2021.

Но качество кода... Оно того не стоило. Да, модель понимала нюансы. Да, она предлагала элегантные решения. Но ждать 5 минут на каждый ответ — это не работа, это пытка.

GPT-OSS-120B на RTX 3060 — это как пытаться перевезти пианино на велосипеде. Теоретически возможно. Практически — мучительно медленно и рискуешь всё сломать.

Попытка номер два: GPT-OSS-120B-q3_k_s. Размер — 32GB. Скорость выросла до 3.2 токена/сек. Качество упало заметно — модель начала путаться в шаблонных параметрах C++.

MiniMax-2.1: снайпер, который не всегда попадает

MiniMax-M2.1-Pro-32B-q4_k_m — 19GB. Вот это уже интересно.

Как мы уже писали ранее, эта модель заточена под код. И это чувствуется сразу.

./main -m minimax-m2.1-pro-32b-q4_k_m.gguf -n 1024 \
--temp 0.3 -c 8192 -ngl 35 --mlock

VRAM занято: 10.5GB. Скорость: 14-18 токенов в секунду. Это уже рабочая скорость.

Качество кода на тесте рефакторинга — 8/10. Модель правильно заменила устаревшие конструкции, предложила использовать smart pointers. Но на поиске утечки памяти споткнулась — не увидела цикличную ссылку в графе объектов.

Пробуем квантование q3: MiniMax-M2.1-Pro-32B-q3_k_m (14GB). Скорость взлетает до 22 токенов/сек. Качество падает до 6/10 — модель начинает генерировать синтаксически корректный, но семантически странный код.

GLM-4.7-REAP: хакер, который играет по своим правилам

GLM-4.7-14B-REAP-40p — вот где начинается магия. Всего 5.6GB файл. Загружаем:

./main -m glm-4.7-14b-reap-40p.gguf -n 2048 \
--temp 0.4 -c 16384 -ngl 40 -t 8

VRAM: 7.2GB. Скорость: 28-32 токена в секунду. Это быстрее, чем я печатаю.

Качество неожиданно хорошее — 7/10. REAP-40 действительно работает. Модель справилась с рефакторингом почти так же хорошо, как MiniMax в q4. Тесты написала адекватно. Утечку памяти не нашла (как и большинство).

Пробуем GLM-4.7-72B-REAP-40p — 29GB. Это уже на грани: 11.5GB VRAM + 18GB RAM. Скорость падает до 5-7 токенов/сек, но качество подскакивает до 8.5/10. Модель нашла утечку, которую пропустили другие.

💡
REAP-40 на маленьких моделях (7B, 14B) работает почти без потерь. На больших (72B) деградация заметнее, но всё равно лучше, чем равномерное q3 квантование. Секрет в том, что для понимания синтаксиса хватает и 40% весов — остальные отвечают за общие знания.

Сводная таблица: холодные цифры против субъективных ощущений

Модель (квантование) Размер GGUF VRAM на RTX 3060 Токенов/сек Качество кода (1-10) Вердикт
GPT-OSS-120B (q4) 42GB 10GB + 32GB RAM 1.8 9 Не для этой карты
MiniMax-2.1-Pro-32B (q4) 19GB 10.5GB 16 8 Баланс
MiniMax-2.1-Pro-32B (q3) 14GB 8GB 22 6 Быстро, но грубо
GLM-4.7-14B (REAP-40) 5.6GB 7.2GB 30 7 Неожиданно хорошо
GLM-4.7-72B (REAP-40) 29GB 11.5GB + 18GB RAM 6 8.5 Качество есть, скорость нет

Оптимизации: как выжать из RTX 3060 максимум

12GB — не приговор. Есть трюки, которые работают:

1 Настройка слоёв GPU

Параметр -ngl в llama.cpp — это не "чем больше, тем лучше". Для каждой модели есть оптимальное значение.

# Для 14B моделей
-ngl 40  # почти все слои на GPU

# Для 32B моделей  
-ngl 35  # компромисс между скоростью и памятью

# Для 72B моделей
-ngl 28  # иначе не влезет

Как найти оптимальное? Запускаем с -ngl 0, смотрим сколько памяти свободно. Делим на размер одного слоя (примерно 250MB для q4). Получаем максимальное количество слоёв.

2 Контекстное окно — враг памяти

Каждые 1024 токена контекста — это дополнительные 100-200MB VRAM. Не используйте -c 32768, если работаете с одним файлом. Для рефакторинга хватит 8192. Для анализа ошибки — 4096.

3 Пакетная обработка через RAM

Если модель не влезает целиком, используйте --mlock и быструю RAM. Разница между DDR4 3200 и DDR5 6000 — до 40% скорости при работе с вытесненными слоями.

Что выбрать для конкретных задач?

Универсального ответа нет. Но есть рекомендации:

  • Быстрый прототипинг: GLM-4.7-14B-REAP-40p. Скорость решает.
  • Рефакторинг сложного кода: MiniMax-2.1-Pro-32B-q4. Качество важнее скорости.
  • Поиск багов: GLM-4.7-72B-REAP-40p, если готовы ждать. Или две RTX 3060 в режиме tensor parallelism.
  • Обучение модели на своём коде: никакая из этих. Берите Qwen2.5-Coder-7B и дообучайте LoRA.

Ошибки, которые все совершают (и я тоже)

Ошибка 1: Качать самую большую модель. На RTX 3060 120B параметров — это overkill. 32B с хорошим квантованием почти всегда лучше, чем 120B с агрессивным.

Ошибка 2: Игнорировать температуру. Для кодинга нужен --temp 0.3 или даже 0.1. Креативность здесь только мешает.

Ошибка 3: Работать через веб-интерфейс. Oobabooga и другие обёртки добавляют overhead. Для серьёзной работы — чистый llama.cpp в терминале.

Что будет дальше? Прогноз на 2026

RTX 3060 12GB не умрёт. Наоборот — станет тестовым полигоном для сверхагрессивных квантований. REAP-40 только начало. Уже видны прототипы REAP-25 (75% сжатие с потерей 5% качества).

MiniMax, судя по их дорожной карте, готовит M2.2 с улучшенной архитектурой для квантования. Возможно, 32B модель в REAP-40 будет работать как сегодняшняя 32B в q8.

Мой совет: не гонитесь за гигабайтами. Настройте то, что есть. 12GB VRAM в 2026 году — это как 4GB в 2023. Мало, но работать можно. Если знать как.

И последнее: иногда лучший кодогенератор — это не нейросеть, а старый добрый стак оверфлоу плюс собственный мозг. Не забывайте думать.