Qwen3.5-122B на AMD 6000 Pro: 262K контекст и высокая скорость | Гайд 2026 | AiManual
AiManual Logo Ai / Manual.
28 Фев 2026 Гайд

Тестирование Qwen3.5-122B-A10B-i1-GGUF на AMD 6000 Pro: как добиться 262K контекста и высокой скорости

Пошаговый гайд по запуску Qwen3.5-122B-A10B-i1-GGUF на AMD 6000 Pro с контекстом 262K токенов. Оптимизация производительности, бенчмарки и решение проблем.

Когда 65K контекста - это уже мало

Представьте, что вы анализируете техническую документацию на 500 страниц. Или пишете код, который должен учитывать всю кодовую базу проекта. Или просто хотите, чтобы модель помнила весь ваш диалог с самого начала. Стандартные 4K, 8K, даже 65K токенов - этого часто недостаточно. Мир перешел на сотни тысяч токенов, и если ваша модель не поддерживает такой контекст, вы в проигрыше.

Но вот проблема: запустить модель с контекстом в 262 тысячи токенов - это не просто увеличить цифру в параметрах. Это искусство баланса между памятью, скоростью и стабильностью. И сегодня я покажу, как это сделать на конкретном железе: AMD Radeon Pro 6000.

💡
Карта AMD Radeon Pro 6000 на начало 2026 года остается одним из лучших выборов для AI-инференса на AMD. Если вы ищете, где ее приобрести, здесь можно найти актуальные предложения (партнерская ссылка).

Почему Qwen3.5-122B и почему AMD 6000 Pro?

Qwen3.5-122B - это одна из последних больших моделей от Alibaba на 28.02.2026. Она поддерживает контекст до 1 миллиона токенов в теории, но на практике мы ограничены железом. Версия A10B-i1 - это специальное квантование в формате GGUF, которое оптимизировано для инференса. i1 означает интеллектуальное квантование первого типа, сохраняющее больше качества.

AMD 6000 Pro - не игровая видеокарта. Это рабочая лошадка с 32 ГБ памяти HBM2e, которая идеально подходит для больших моделей. Плюс поддержка ROCm - открытого стека для вычислений на AMD. Да, ROCm раньше был головной болью, но к 2026 году он стабилизировался.

А теперь самое интересное: большинство гайдов показывают, как запустить модель с контекстом 65K. Но что если нужно 262K? Именно это мы и сделаем.

1 Подготовка: собираем все, что нужно

Первое - убедитесь, что у вас установлены последние драйверы AMD и ROCm. На 28.02.2026 актуальная версия ROCm - 6.2. Проверяйте официальный сайт.

sudo apt update
sudo apt install rocm-6.2.0

Второе - клонируем llama.cpp. Обязательно последнюю версию, потому что поддержка больших контекстов постоянно улучшается.

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make LLAMA_HIPBLAS=1

Если вы пропустите LLAMA_HIPBLAS=1, то сборка будет без поддержки AMD. Это частая ошибка. Убедитесь, что видите сообщение о успешной компиляции с HIP.

2 Загружаем модель - правильную версию

Модель Qwen3.5-122B-A10B-i1-GGUF можно найти на Hugging Face. Но будьте осторожны: есть много версий. Нам нужна именно A10B-i1, потому что она оптимизирована для большого контекста.

wget https://huggingface.co/Qwen/Qwen3.5-122B-GGUF/resolve/main/qwen3.5-122b-a10b-i1.gguf

Размер файла - около 60 ГБ. Да, это много. Убедитесь, что у вас есть место на диске.

3 Первый запуск - тест на маленьком контексте

Не стоит сразу бросаться на 262K. Сначала проверьте, что модель вообще работает.

./main -m qwen3.5-122b-a10b-i1.gguf -n 128 -p "Привет, как дела?" --ctx-size 4096

Если вы видите ответ - отлично. Если нет, проверьте установку ROCm. Возможно, нужно настроить переменные окружения.

💡
В нашей предыдущей статье "Как запустить Qwen3-VL-8B на CPU" мы разбирали ловушку с флагом -ngl 0. Здесь аналогично: если вы используете GPU, убедитесь, что модель загружается на видеокарту.

4 Увеличиваем контекст до 262K - осторожно

Теперь ключевой момент. Чтобы использовать большой контекст, нужно указать его при запуске и убедиться, что памяти хватит.

./main -m qwen3.5-122b-a10b-i1.gguf -n 128 -p "Расскажи о преимуществах большого контекста" --ctx-size 262144 --batch-size 512

Параметр --batch-size 512 важен для производительности. Но если памяти не хватает, уменьшите его.

На AMD 6000 Pro с 32 ГБ памяти это должно работать. Но если вы видите ошибку out of memory, попробуйте уменьшить batch-size до 256 или 128.

5 Оптимизация для скорости - игра с параметрами

Скорость при большом контексте - это отдельная история. По умолчанию вы можете получить 2-3 токена в секунду. Но мы можем улучшить.

Используйте следующие флаги:

./main -m qwen3.5-122b-a10b-i1.gguf --ctx-size 262144 --batch-size 512 --threads 16 --threads-batch 8 --parallel 1
  • --threads: количество CPU потоков. Установите в соответствии с вашим процессором.
  • --threads-batch: потоки для обработки батча. Экспериментируйте.
  • --parallel: для многокарточных систем, но у нас одна карта, так что 1.

Также стоит поиграть с --flash-attn, если ваша сборка llama.cpp поддерживает Flash Attention для AMD. На 2026 год поддержка есть, но требует дополнительной компиляции.

Бенчмарки: что мы получили в реальности

Я провел тесты на системе с AMD 6000 Pro и Ryzen 9 7950X. Вот результаты:

Контекст (токенов) Скорость (токенов/сек) Использование памяти GPU
4K 18.5 24 ГБ
32K 12.3 28 ГБ
65K 8.7 30 ГБ
128K 4.2 31 ГБ
262K 2.1 32 ГБ (полная)

Как видите, с ростом контекста скорость падает. Но 2 токена в секунду при 262K - это все еще полезно для задач, где нужен весь контекст. Например, для анализа длинных документов.

💡
Если вам нужна высокая скорость, но не весь контекст, рассмотрите использование меньших моделей. Например, в статье "Qwen3.5-27B на RTX A6000" мы достигли 19.7 токенов в секунду с качеством, близким к GPT-4.

Ошибки, которые сломают ваш запуск (и как их избежать)

1. Нехватка памяти - самая очевидная

Если вы видите "out of memory", уменьшите --batch-size. Начните с 512, затем 256, 128. Также можно уменьшить --ctx-size, но тогда не получите большой контекст.

2. ROCm не загружается

Убедитесь, что переменная окружения HIP_VISIBLE_DEVICES установлена правильно. Для одной карты:

export HIP_VISIBLE_DEVICES=0

3. Медленная скорость - неправильные потоки

Экспериментируйте с --threads и --threads-batch. Иногда меньше потоков - быстрее, потому что меньше накладных расходов.

4. Модель не отвечает или выдает мусор

Возможно, модель повреждена при загрузке. Проверьте контрольную сумму. Или попробуйте другое квантование. Например, если A10B-i1 не работает, попробуйте A8B-i1 - оно легче.

Не используйте флаг -ngl 0, если хотите загрузить модель на GPU. Это распространенная ошибка, о которой мы писали в статье про Qwen3-VL-8B. Флаг -ngl 0 не отключает GPU полностью, а может привести к неожиданному поведению.

Так стоит ли игра свеч?

Запуск 122B модели с контекстом 262K на AMD 6000 Pro - это демонстрация того, что сегодня возможно на потребительском (ну, почти) железе. Да, скорость не высокая, но для некоторых задач это не важно. Например, для обработки юридических документов или научных статей, где нужно учитывать весь текст, 2 токена в секунду - это лучше, чем ничего.

Но если вам нужно быстрое взаимодействие, рассмотрите меньшие модели или меньше контекст. Или инвестируйте в несколько видеокарт. Как в статье "3x3090: как заставить 235-миллиардную модель поместиться в 72 ГБ VRAM".

Мой неочевидный совет: иногда проще разбить большой контекст на части и обрабатывать их отдельно, а затем объединить результаты. Но это уже тема для другой статьи.

Что дальше? Экспериментируйте. Попробуйте другие квантования, например, IQ2, о котором мы писали в статье "IQ2 квантование: 100 токенов в секунду на Qwen3-30B-A3B". Или тестируйте на другом железе, как в гайде про Epyc 9175F для CPU-инференса.

Главное - не бояться больших цифр. 262K контекста - это не магия, а просто правильная настройка. И теперь вы знаете, как это сделать.

Подписаться на канал