Open Terminal в Open WebUI: Гайд по tool calling с Qwen3.5 35B | AiManual
AiManual Logo Ai / Manual.
06 Мар 2026 Гайд

Open Terminal в Open WebUI: полный гайд по нативному tool calling и sandbox-автоматизации с Qwen3.5 35B

Узнайте, как настроить Open Terminal в Open WebUI для нативного tool calling и sandbox-автоматизации с моделью Qwen3.5 35B. Полное руководство по установке, нас

Зачем вообще давать ИИ доступ к терминалу?

Представь: ты просишь свою локальную модель написать скрипт для резервного копирования. Она выдает красивый код на Python. А потом ты вручную копируешь его, создаешь файл, запускаешь, ловишь ошибки, правишь... Знакомая история? Именно эту проблему решает Open Terminal в Open WebUI. Это не просто "еще одна фича". Это переход от разговоров к действиям.

Раньше, когда модель "галлюцинировала" tool-calls, как это случалось с Qwen3 VL в Ollama, это было просто смешно. Теперь она может реально выполнить команду и увидеть результат. И это меняет все.

Что такое Open Terminal и почему все внезапно взбесились

Open Terminal - это нативная интеграция терминала в интерфейс Open WebUI, запущенная в изолированном Docker-контейнере. Модель получает доступ к песочнице, где может выполнять команды, читать файлы, устанавливать пакеты. И все это через стандартный механизм tool calling. Никаких костылей.

Зачем это нужно? Давай честно: 90% задач разработчика и системного администратора сводятся к манипуляции файлами и командам в терминале. Теперь твой AI-ассистент из домашнего сервера на Tesla P100 может стать полноценным партнером. Не просто советчиком, а тем, кто делает.

1 Подготовка: что должно быть установлено до начала

Перед тем как прыгать в настройку, проверь список. Без этого ничего не заработает.

  • Docker и Docker Compose: Обязательно. Open Terminal работает через контейнеры. Версии на 06.03.2026: Docker 27.x, Compose 2.28.x. Если устарел - обнови.
  • Open WebUI версии 0.3.0 или выше: В более ранних версиях этой функции нет. Актуальная на март 2026 - 0.4.1.
  • Ollama с Qwen3.5 35B: Да, именно эта модель. Не 9B, не 14B, а 35B. Почему? Потому что меньшие модели, как Qwen 3.5 9B на Mac, часто зацикливаются на размышлениях. 35B достаточно умна для последовательных tool calls.
  • 8+ ГБ оперативной памяти: Для модели 35B и терминала в фоне. Лучше 16 ГБ.
💡
Не пытайся использовать эту связку на слабом железе. Если у тебя только CPU, забудь. Qwen3.5 35B требует GPU для адекватной скорости. Но если ты уже собрал домашний AI-сервер, то проблем нет.

2 Установка Open WebUI с поддержкой Open Terminal

Запускаем через Docker Compose. Важно: используем последний образ с тегом 'latest' или конкретную версию 0.4.1.

# Создаем директорию и docker-compose.yml
mkdir open-webui-terminal && cd open-webui-terminal

cat > docker-compose.yml << EOF
version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:latest
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - ./data:/app/backend/data
      - /var/run/docker.sock:/var/run/docker.sock  # Критично для Open Terminal
    environment:
      - ENABLE_OPEN_TERMINAL=true
      - OLLAMA_BASE_URL=http://host.docker.internal:11434
    restart: unless-stopped
EOF

Обрати внимание на два ключевых момента:

  1. Монтирование docker.sock: Это дает контейнеру Open WebUI доступ к Docker-демону на хосте. Без этого терминал не запустится.
  2. Переменная ENABLE_OPEN_TERMINAL=true: Активирует функционал. По умолчанию она выключена из соображений безопасности.

Теперь запускаем:

docker-compose up -d

Открой браузер по адресу http://localhost:3000. Если все хорошо, увидишь интерфейс Open WebUI.

3 Настройка модели Qwen3.5 35B для tool calling

Здесь многие спотыкаются. Модель должна быть специально настроена для вызова инструментов. В Open WebUI есть встроенная поддержка, но нужно проверить конфигурацию.

Сначала убедись, что Ollama запущен и модель загружена:

# Запускаем Ollama (если еще не запущен)
ollama serve &

# Скачиваем и запускаем Qwen3.5 35B
ollama run qwen2.5:35b

На 06.03.2026 самая новая версия - Qwen2.5 35B. Да, именно 2.5, а не 3.5. Alibaba выпустила обновление в начале 2026 года. Она лучше справляется с tool calling и имеет оптимизированный контекст. Если у тебя еще старая 3.5 - обнови.

В интерфейсе Open WebUI перейди в настройки модели (Model Settings). В разделе "Tool Calling" должны быть активированы опции. Важно: выбери "Open Terminal" из списка доступных инструментов. Система автоматически подгрузит схему для терминала.

4 Первый тест: заставляем ИИ создать файл и прочитать его

Теперь самое интересное. Создай новый чат с моделью Qwen2.5 35B. Напиши что-то вроде:

Создай файл test.txt в домашней директории песочницы и запиши в него "Hello from AI terminal". Затем прочитай содержимое этого файла и покажи мне.

Модель должна определить, что нужны инструменты терминала. Она вызовет последовательно:

  1. Команду создания и записи: echo "Hello from AI terminal" > /home/sandbox/test.txt
  2. Команду чтения: cat /home/sandbox/test.txt

И покажет результат прямо в чате. Если это работает - ты только что совершил маленькую революцию на своем компьютере.

Автоматизация, от которой мурашки по коже

Теперь давай перейдем к практическим сценариям. Open Terminal - это не игрушка. Это инструмент для автоматизации рутины.

Сценарий 1: Настройка проекта с нуля

Попроси модель: "Создай директорию для нового Python-проекта 'myapp', инициализируй git, создай виртуальное окружение, установи библиотеки requests и pytest".

Модель выполнит примерно такой набор команд:

mkdir myapp
cd myapp
git init
python -m venv venv
source venv/bin/activate
pip install requests pytest

Все это в изолированной песочнице. Без твоего участия. И если что-то пойдет не так (например, pip нет в системе), модель может сначала установить pip. Это уже уровень системного администратора.

Сценарий 2: Анализ логов и поиск ошибок

Скинул в чат файл лога (через интерфейс загрузки файлов Open WebUI) и спросил: "Найди все ошибки ERROR в этом файле, посчитай их количество и выведи первые 5 строк с контекстом".

Модель скопирует файл в песочницу и запустит grep, awk, sed - все что нужно. И представит результат структурированно. Это уже не chat, это рабочий инструмент.

💡
Помни про ограничения песочницы. Это изолированный контейнер. Файлы из твоей основной системы недоступны, если ты явно не смонтируешь их. Но именно эта изоляция защищает тебя от случайного 'rm -rf /'. Хотя, если смонтировал docker.sock, теоретически модель может вырваться. Об этом ниже.

Ошибки, которые убьют твою эйфорию (и как их избежать)

В теории все гладко. На практике - грабли на каждом шагу. Вот список самых частых проблем.

Ошибка Причина Решение
"Tool calling not available" Модель не поддерживает tool calling или не настроена Используй Qwen2.5 35B (или новее). В настройках модели активируй Tool Calling.
"Failed to create terminal session" Нет доступа к Docker daemon или контейнеру Проверь монтирование /var/run/docker.sock. Запусти Open WebUI с правами, которые могут использовать Docker.
Модель "думает" бесконечно, не вызывая инструменты Слишком слабая модель или неправильный prompt Используй 35B, а не меньшие версии. Явно указывай в запросе необходимость действий ("используй терминал", "выполни команду").
Команды выполняются, но ничего не происходит Песочница работает, но в изоляции. Нет доступа к сети или внешним ресурсам Настрой сеть контейнера. В docker-compose.yml добавь network_mode: "host" для Open WebUI, но понимай риски.

Самая опасная ошибка - это дать модели слишком много прав. Монтирование docker.sock - это по сути передача root-доступа. Если модель скомпрометирована или ты дашь ей неправильную инструкцию, она может натворить дел. Никогда не используй эту связку на продакшн-сервере без дополнительной изоляции. Это инструмент для локальной разработки, не более.

А что дальше? Куда развивать эту магию

Open Terminal - только начало. Вот что можно сделать дальше:

  • Интеграция с VS Code: Через API Open WebUI можно связать это с локальным плагином. Получится свой китайский гений в VS Code, но с доступом к терминалу.
  • Автоматизация деплоя: Настрой пайплайн, где модель по описанию задачи сама создает контейнер, настраивает его и деплоит.
  • Мониторинг и алерты: Научи модель анализировать вывод команд top, df, nginx logs и присылать уведомления.

Но главное - не перегружай модель сложными многошаговыми задачами сразу. Начни с простого. Дай ей привыкнуть к твоему стилю. И всегда проверяй, что она собирается сделать, перед тем как дать согласие на выполнение. Особенно если это команды с sudo или удалением файлов.

Неочевидный совет: создай в песочнице алиасы и функции в .bashrc. Модель их унаследует. Например, алиас 'safe_rm' который перемещает файлы в корзину вместо удаления. Или функцию для быстрого создания типовых проектов. Модель будет использовать их, что сделает ее действия более предсказуемыми.

В конце концов, Open Terminal в Open WebUI - это мост между языковыми моделями и реальным миром. Это то, о чем говорили в статьях про AI Terminal как операционную систему. Только теперь это у тебя на компьютере. И да, это страшно. И да, это невероятно мощно. Используй с умом.

Подписаться на канал