LMStudio-Ollama: Модифицированный VS Code для локальных LLM | AiManual
AiManual Logo Ai / Manual.
07 Янв 2026 Инструмент

LMStudio-Ollama: Как установить и использовать модифицированный VS Code для локальных LLM

Установите модифицированный VS Code с интеграцией LM Studio и Ollama для работы с локальными языковыми моделями. Полное руководство по настройке и использованию

Когда обычного VS Code уже мало

Вы скачали десяток GGUF-моделей, запустили LM Studio, поставили Ollama. Теперь нужно переключаться между терминалом, браузером и редактором, чтобы просто спросить у модели, почему ваш код не работает. Знакомая картина? Кто-то решил, что хватит это терпеть.

💡
LMStudio-Ollama — это форк VS Code (точнее, Code OSS), в который встроили прямое управление локальными моделями через контекстное меню. Больше не нужно копировать код в отдельное окно чата.

Что это за зверь и откуда взялся

Проект появился на GitHub как ответ на боль разработчиков, которые устали от танцев с бубном вокруг локальных LLM. Основа — Code OSS, открытая версия VS Code. В неё добавили панель для работы с моделями и контекстное меню, которое вызывает модель прямо на выделенном фрагменте кода.

Интеграция работает с двумя движками: LM Studio (через его API) и Ollama (через родной API). Вы выбираете модель в настройках, выделяете код, жмёте правой кнопкой и выбираете действие — объяснить, исправить, переписать.

Зачем это, если есть расширения?

В теории, вы можете поставить расширение для VS Code, которое подключится к Ollama API. На практике — это костыль на костыле. Расширения часто ломаются, требуют ручной настройки эндпоинтов, а интерфейс размазан по разным панелям.

Здесь всё вшито в сам редактор. Панель управления моделями висит сбоку, как обычная панель Explorer. Контекстное меню добавляет пункты вроде "Ask LM Studio about this code" или "Send to Ollama". Никаких лишних телодвижений.

ИнструментКак работаетБоль
Обычный VS Code + расширениеОтдельное расширение, настройка API вручнуюЛомается после обновлений, интерфейс неудобный
LMStudio-OllamaВстроенная панель, контекстное менюНужно ставить отдельный редактор
Отдельные приложенияЗапуск LM Studio или Ollama в терминалеПостоянное переключение окон, копирование кода

Если вы уже читали наш сравнительный обзор LM Studio и llama.cpp, то понимаете, что каждый инструмент тянет одеяло на себя. Здесь же они работают в одном окне.

1Скачиваем и устанавливаем

Переходим на GitHub репозиторий. Там есть готовые сборки для Windows, macOS и Linux. Качаем под свою систему. Установка ничем не отличается от установки обычного VS Code — запускаем инсталлятор и следуем инструкциям.

Важно: это отдельное приложение, а не расширение для существующего VS Code. После установки у вас будет два редактора — обычный VS Code и этот модифицированный. Не перепутайте ярлыки.

2Настраиваем LM Studio или Ollama

Перед запуском редактора нужно запустить либо LM Studio с включенным локальным API-сервером, либо Ollama сервис. Без этого редактор не сможет подключиться к моделям.

  • Для LM Studio: открываем приложение, загружаем нужную GGUF-модель, переходим в раздел "Local Server" и включаем сервер. Запоминаем порт (обычно 1234).
  • Для Ollama: убеждаемся, что сервис работает (команда ollama serve в терминале), и скачана хотя бы одна модель (например, ollama pull codellama).

Если вы не знаете, как настроить Ollama для IDE, у нас есть отдельная статья про идеальный стек. Там всё разжёвано.

3Подключаем редактор к модели

Открываем LMStudio-Ollama. Слева появляется новая панель с иконкой мозга. Жмём на неё. Видим настройки подключения.

Выбираем бэкенд (LM Studio или Ollama), указываем адрес API (для LM Studio это http://localhost:1234/v1, для Ollama — http://localhost:11434/api/generate). Затем выбираем модель из списка доступных в запущенном сервисе.

💡
Совет: начните с небольшой модели для кодирования, например, CodeLlama 7B. Она быстро отвечает и не грузит систему. Потом можно перейти на что-то посерьёзнее, вроде DeepSeek-Coder.

4Пробуем в деле

Открываем любой файл с кодом. Выделяем фрагмент, который вызывает вопросы. Правой кнопкой по выделенному — в контекстном меню видим новые пункты: "Explain with LM Studio", "Refactor with Ollama" и так далее.

Жмём. Справа открывается панель с ответом модели. Можно задать уточняющий вопрос в текстовом поле. Всё происходит в одном окне, без переключений.

Пример из жизни: баг, который не видно

Допустим, у вас есть функция на Python, которая должна фильтровать список, но работает некорректно. Выделяете её, вызываете "Explain with LM Studio". Модель не только объясняет логику, но и замечает, что в условии фильтрации используется оператор присваивания (=) вместо сравнения (==).

Вы просите исправить. Модель выдаёт исправленный код. Вы копируете его обратно в редактор. Всё заняло 20 секунд, и вам не пришлось ничего гуглить.

Кому это вообще нужно?

Разработчикам, которые уже попробовали локальные LLM, но устали от неудобного интерфейса. Если вы до сих пор копируете код в чат LM Studio, этот инструмент сэкономит вам кучу времени.

Командам, которые работают с закрытым кодом и не могут использовать облачные сервисы вроде GitHub Copilot. LMStudio-Ollama работает полностью офлайн, данные никуда не уходят.

Любителям экспериментов с разными GGUF-моделями. Быстрое переключение между моделями прямо в редакторе позволяет сравнивать их ответы без лишних телодвижений.

Не ждите чудес от маленьких моделей. Они могут ошибаться. Всегда проверяйте их предложения. Этот инструмент — помощник, а не замена вашему мозгу.

А что с обновлениями и поддержкой?

Проект активно развивается. Авторы следят за обновлениями Code OSS и выпускают новые версии. Пока что это лучший способ работать с локальными LLM прямо в редакторе кода.

Если вы уже настроили идеальный стек с Ollama, как в нашей статье про идеальный стек, то LMStudio-Ollama станет его логичным продолжением.

Попробуйте. Возможно, вы больше не захотите возвращаться к старому workflow.