Когда обычного VS Code уже мало
Вы скачали десяток GGUF-моделей, запустили LM Studio, поставили Ollama. Теперь нужно переключаться между терминалом, браузером и редактором, чтобы просто спросить у модели, почему ваш код не работает. Знакомая картина? Кто-то решил, что хватит это терпеть.
Что это за зверь и откуда взялся
Проект появился на GitHub как ответ на боль разработчиков, которые устали от танцев с бубном вокруг локальных LLM. Основа — Code OSS, открытая версия VS Code. В неё добавили панель для работы с моделями и контекстное меню, которое вызывает модель прямо на выделенном фрагменте кода.
Интеграция работает с двумя движками: LM Studio (через его API) и Ollama (через родной API). Вы выбираете модель в настройках, выделяете код, жмёте правой кнопкой и выбираете действие — объяснить, исправить, переписать.
Зачем это, если есть расширения?
В теории, вы можете поставить расширение для VS Code, которое подключится к Ollama API. На практике — это костыль на костыле. Расширения часто ломаются, требуют ручной настройки эндпоинтов, а интерфейс размазан по разным панелям.
Здесь всё вшито в сам редактор. Панель управления моделями висит сбоку, как обычная панель Explorer. Контекстное меню добавляет пункты вроде "Ask LM Studio about this code" или "Send to Ollama". Никаких лишних телодвижений.
| Инструмент | Как работает | Боль |
|---|---|---|
| Обычный VS Code + расширение | Отдельное расширение, настройка API вручную | Ломается после обновлений, интерфейс неудобный |
| LMStudio-Ollama | Встроенная панель, контекстное меню | Нужно ставить отдельный редактор |
| Отдельные приложения | Запуск LM Studio или Ollama в терминале | Постоянное переключение окон, копирование кода |
Если вы уже читали наш сравнительный обзор LM Studio и llama.cpp, то понимаете, что каждый инструмент тянет одеяло на себя. Здесь же они работают в одном окне.
1Скачиваем и устанавливаем
Переходим на GitHub репозиторий. Там есть готовые сборки для Windows, macOS и Linux. Качаем под свою систему. Установка ничем не отличается от установки обычного VS Code — запускаем инсталлятор и следуем инструкциям.
Важно: это отдельное приложение, а не расширение для существующего VS Code. После установки у вас будет два редактора — обычный VS Code и этот модифицированный. Не перепутайте ярлыки.
2Настраиваем LM Studio или Ollama
Перед запуском редактора нужно запустить либо LM Studio с включенным локальным API-сервером, либо Ollama сервис. Без этого редактор не сможет подключиться к моделям.
- Для LM Studio: открываем приложение, загружаем нужную GGUF-модель, переходим в раздел "Local Server" и включаем сервер. Запоминаем порт (обычно 1234).
- Для Ollama: убеждаемся, что сервис работает (команда ollama serve в терминале), и скачана хотя бы одна модель (например, ollama pull codellama).
Если вы не знаете, как настроить Ollama для IDE, у нас есть отдельная статья про идеальный стек. Там всё разжёвано.
3Подключаем редактор к модели
Открываем LMStudio-Ollama. Слева появляется новая панель с иконкой мозга. Жмём на неё. Видим настройки подключения.
Выбираем бэкенд (LM Studio или Ollama), указываем адрес API (для LM Studio это http://localhost:1234/v1, для Ollama — http://localhost:11434/api/generate). Затем выбираем модель из списка доступных в запущенном сервисе.
4Пробуем в деле
Открываем любой файл с кодом. Выделяем фрагмент, который вызывает вопросы. Правой кнопкой по выделенному — в контекстном меню видим новые пункты: "Explain with LM Studio", "Refactor with Ollama" и так далее.
Жмём. Справа открывается панель с ответом модели. Можно задать уточняющий вопрос в текстовом поле. Всё происходит в одном окне, без переключений.
Пример из жизни: баг, который не видно
Допустим, у вас есть функция на Python, которая должна фильтровать список, но работает некорректно. Выделяете её, вызываете "Explain with LM Studio". Модель не только объясняет логику, но и замечает, что в условии фильтрации используется оператор присваивания (=) вместо сравнения (==).
Вы просите исправить. Модель выдаёт исправленный код. Вы копируете его обратно в редактор. Всё заняло 20 секунд, и вам не пришлось ничего гуглить.
Кому это вообще нужно?
Разработчикам, которые уже попробовали локальные LLM, но устали от неудобного интерфейса. Если вы до сих пор копируете код в чат LM Studio, этот инструмент сэкономит вам кучу времени.
Командам, которые работают с закрытым кодом и не могут использовать облачные сервисы вроде GitHub Copilot. LMStudio-Ollama работает полностью офлайн, данные никуда не уходят.
Любителям экспериментов с разными GGUF-моделями. Быстрое переключение между моделями прямо в редакторе позволяет сравнивать их ответы без лишних телодвижений.
Не ждите чудес от маленьких моделей. Они могут ошибаться. Всегда проверяйте их предложения. Этот инструмент — помощник, а не замена вашему мозгу.
А что с обновлениями и поддержкой?
Проект активно развивается. Авторы следят за обновлениями Code OSS и выпускают новые версии. Пока что это лучший способ работать с локальными LLM прямо в редакторе кода.
Если вы уже настроили идеальный стек с Ollama, как в нашей статье про идеальный стек, то LMStudio-Ollama станет его логичным продолжением.
Попробуйте. Возможно, вы больше не захотите возвращаться к старому workflow.