Локальный? Не совсем
Вы скачали OpenCode, запустили его на своем компьютере и думаете, что все запросы обрабатываются локально. А вот и нет. По умолчанию OpenCode тихонько отсылает ваши данные через прокси на внешний сервер. Мелочь, а неприятно.
На момент 16 марта 2026 года, последние версии OpenCode все еще имеют эту проблему. Разработчики знают, но фикса нет. Проверьте свою версию.
Где собака зарыта
Покопавшись в GitHub issues, вы найдете десятки сообщений от параноидальных пользователей. Они обнаружили, что OpenCode использует прокси-сервер для некоторых операций, даже когда вы явно указали локальный эндпоинт. Документация молчит. Или почти молчит.
Зачем это нужно? Разработчики говорят о "улучшении пользовательского опыта" и "сборе анонимной статистики". Но когда вы работаете с конфиденциальным кодом, такие оправдания не катят. Особенно если вы за firewall, как в нашем гиде для бизнеса.
Как проверить утечку
Возьмите Wireshark. Запустите OpenCode. Увидите запросы к неизвестным доменам. Вот вам и прокси. И это в 2026 году, когда локальные LLM должны быть truly локальными.
Настраиваем true local режим
Есть способ отключить прокси. Неочевидный, но рабочий. Вам нужно найти конфигурационный файл OpenCode и добавить несколько параметров. Не ищите эти настройки в интерфейсе. Их там нет.
1 Найдите конфиг
Обычно это ~/.opencode/config.json. Если нет, создайте. В последних версиях путь мог измениться - проверьте документацию (шутка, ее нет).
2 Добавьте магические строки
Вставьте следующие параметры. Без них ваш "локальный" ИИ продолжит болтать с облаком.
{
"proxy_enabled": false,
"force_local": true,
"disable_telemetry": true
}
3 Перезапустите и проверьте
После перезапуска OpenCode, снова проверьте Wireshark. Запросы на внешние сервера должны исчезнуть. Если нет, значит, вы где-то ошиблись или разработчики добавили новые хитрости. (Такое бывает).
Важно: в последних версиях OpenCode (актуальных на 16.03.2026) эти параметры работают, но они не документированы. Используйте на свой страх и риск.
А что, если не работает?
Тогда придется искать альтернативы. Например, настроить локальный LLM-сервер и подключить его к другим инструментам. Или посмотреть на сравнение OpenCode и Claude Code, чтобы понять, какой инструмент менее "течет".
Кстати, о Claude Code: у него свои проблемы с утечками, как мы уже писали. Кажется, разработчики AI-инструментов думают, что конфиденциальность — это для параноиков.
Если нужно что-то простое и контролируемое, попробуйте one-click установщик для локальных LLM. Там хотя бы понятно, куда и что идет.
Итог: доверяй, но проверяй
Даже если инструмент позиционируется как локальный, всегда проверяйте сетевую активность. Особенно если вы работаете с кодом, который не должен уходить за пределы вашего компьютера. Настройки вроде отключения прокси — это первый шаг. Второй — использование полного гайда по защите локальных LLM.
А самый надежный способ? Развернуть свою инфраструктуру с нуля. И не забывать, что даже популярные IDE могут блокировать локальные модели по своим причинам.
Помните: в 2026 году истинно локальный ИИ — это тот, который даже не пытается позвонить домой. И если OpenCode не научится этому, его место займут другие.