Запуск LongCat-Flash-Lite 68.5B на 24 ГБ VRAM: гайд 2026 | AiManual
AiManual Logo Ai / Manual.
01 Мар 2026 Инструмент

LongCat-Flash-Lite 68.5B на 24 ГБ VRAM: как заставить котика поместиться в маленькую коробку

Пошаговая инструкция по локальному запуску модели LongCat-Flash-Lite 68.5B на GPU с 24 ГБ видеопамяти через оптимизированный llama.cpp с N-gram схемой.

Вы купили видеокарту с 24 ГБ VRAM, скачали LongCat-Flash-Lite 68.5B и получили ошибку 'out of memory'. Знакомо? Модель с 68.5 миллиардами параметров в полном размере требует около 140 ГБ памяти. Но мы живем не в идеальном мире, а в мире квантования и хаков. Запустить этого гиганта на 24 ГБ можно. Без облаков. Без аренды серверов. Но придется повозиться.

Зачем вообще это нужно?

LongCat-Flash-Lite 68.5B — это не очередная мелкая моделька. Это инструмент для серьезных задач: анализ кода, написание длинных текстов, сложные рассуждения. И да, она умнее многих облачных аналогов. Но цена — железо. А точнее, его нехватка.

💡
Ключ к успеху — формат GGUF и квантование Q4_K_M. Оно сжимает модель до ~35 ГБ, сохраняя адекватное качество. Но чтобы она влезла в 24 ГБ, нужны дополнительные оптимизации — форк llama.cpp с N-gram вычислительной схемой.

Что такое N-gram и почему он спасает?

N-gram вычислительная схема — это не магия, а умный обман. Вместо того чтобы хранить все ключи и значения (KV cache) в VRAM для каждого токена, система предсказывает их на основе предыдущих N токенов. Экономия памяти достигает 70%. Скорость падает, но не катастрофически. В феврале 2026 года эта технология перестала быть экспериментальной и стала стандартом для запуска больших моделей на слабом железе.

Внимание: N-gram схема 'ломает' длинные контексты. Если ваш промпт больше 4000 токенов, качество ответов может упасть. Для коротких диалогов — идеально.

1 Качаем правильную версию модели

Не всякий GGUF файл подойдет. Нужна конкретная версия с квантованием Q4_K_M. На 01.03.2026 актуальная сборка — longcat-flash-lite-68.5b-v1.2-Q4_K_M.gguf. Ищите ее на Hugging Face или в каталоге Cattorch (партнерская ссылка). Размер файла — примерно 34.8 ГБ. Да, качать придется долго.

2 Собираем llama.cpp с N-gram поддержкой

Обычный llama.cpp не подойдет. Нужен форк от сообщества 'LongCat-Optimized'. Вот команды для Linux (для Windows — используйте WSL2):

git clone https://github.com/longcat-opt/llama.cpp.git
cd llama.cpp
make clean
LLAMA_CUDA=1 make -j8

Ключевой момент: убедитесь, что у вас CUDA версии 12.5 или выше (актуально на март 2026). Без этого N-gram схема не заработает.

3 Запуск с правильными флагами

Вот команда, которая запустит модель на GPU с 24 ГБ VRAM, используя все оптимизации:

./main -m ./models/longcat-flash-lite-68.5b-v1.2-Q4_K_M.gguf \
  -n 512 \
  -ngl 99 \
  -t 8 \
  --n-gram 8 \
  --memory-f32 \
  -c 2048

Разберем флаги:

  • -ngl 99 — загрузить все слои на GPU (сколько влезет).
  • --n-gram 8 — включить N-gram схему с размером окна 8. Без этого флага модель сожрет всю память.
  • --memory-f32 — использовать float32 для кэша (стабильнее).
  • -c 2048 — ограничить контекст, чтобы не перегружать память.
Настройка Без N-gram С N-gram (8)
Потребление VRAM ~38 ГБ (не влезет) ~22 ГБ
Скорость (токенов/сек) - 3-5
Качество ответов Эталонное Хорошее, но могут быть повторы

А есть другие способы?

Конечно. Можно использовать MoE-модели, как Granite 4 Small, которые экономят память за счет архитектуры. Или взять модель поменьше — например, Solar-Open-100B, но с более агрессивным квантованием. Но у LongCat-Flash-Lite есть особенность — она блестяще работает с кодом. За это и любят.

Еще один путь — арендовать облако. Но тогда это уже не локальный запуск. И да, это дороже. Если вы часто экспериментируете с моделями, возможно, стоит задуматься об апгрейде. На март 2026 года карты с 48 ГБ VRAM, вроде RTX 5090 (партнерская ссылка), уже не фантастика. Но это другая история.

Что можно делать с запущенной моделью?

После запуска вы получите консольный интерфейс. Это не ChatGPT. Зато вы можете:

  • Писать промпты на английском (она лучше их понимает).
  • Генерировать код. Дайте задание: "Write a Python function to parse PDF tables using PyMuPDF."
  • Анализировать логи. Вставьте кусок лога и спросите, в чем ошибка.
  • Писать документацию. Но будьте готовы к медленной скорости.

Пример промпта для теста:

> User: Explain the butterfly effect in terms of Python decorators.
> Assistant:

Ответ займет минуту-две. Но он будет глубоким. Иногда даже слишком.

Совет: Если модель 'зацикливается' и повторяет фразы, уменьшите значение --n-gram до 4 или 6. Это снизит потребление памяти, но ухудшит связность текста.

Кому это вообще надо?

Этот гайд для тех, у кого уже есть GPU с 24 ГБ VRAM (RTX 4090, RTX 3090, или аналоги от AMD с ROCm поддержкой) и кто готов потратить вечер на настройку. Если вы ждете 'скачал и играй' — это не сюда. Попробуйте более легкие модели через Open WebUI.

Но если вы разработчик, исследователь или просто фанат локального AI, который хочет выжать максимум из своего железа — это ваш путь. LongCat-Flash-Lite 68.5B на 24 ГБ VRAM — это как запустить Ferrari на 92 бензине. Едет. Но не так, как задумывал инженер.

А что будет через год? Скорее всего, появятся модели с еще лучшей архитектурой, которые будут требовать меньше памяти. Но пока — вот он, рабочий способ. Медленный, костыльный, но работающий. Иногда этого достаточно.

Подписаться на канал