SurfSense - локальная альтернатива Glean и NotebookLM с Docker | AiManual
AiManual Logo Ai / Manual.
13 Янв 2026 Инструмент

SurfSense: локальный ассистент, который не сливает ваши документы в облако

Как развернуть SurfSense - приватный RAG-ассистент с поддержкой 100+ LLM через Ollama. Полная инструкция по Docker-установке.

Забудьте про Glean. Ваши документы остаются на вашем сервере

Представьте корпоративного ассистента, который знает все ваши внутренние документы, но при этом ни один файл не покидает ваш сервер. Никаких подписок за $30 с пользователя в месяц. Никаких соглашений о передаче данных третьим лицам. Просто Docker-контейнер и ваша собственная инфраструктура.

SurfSense именно такой. Open-source проект, который делает то же, что Glean или NotebookLM, но полностью локально. Загружаете документы, настраиваете подключение к Ollama (или любой другой LLM), и получаете приватного ассистента, который отвечает на вопросы по вашим данным.

SurfSense поддерживает 15+ коннекторов: от простых PDF и TXT до Confluence, Slack и Google Drive. Все данные индексируются локально в векторной базе.

Что умеет этот монстр (кроме сохранения вашей приватности)

Функциональность SurfSense заставляет задуматься: "А зачем тогда платить за Glean?"

  • Мультиагентная система: Не просто RAG, а целый зоопарк агентов для разных задач
  • Поддержка 100+ моделей через Ollama - от крошечных Qwen2.5-0.5B до монстров в 70B параметров
  • Веб-интерфейс, который не стыдно показать коллегам (редкость для open-source проектов)
  • API для интеграций - подключайте к своим внутренним системам
  • Гибкая настройка промптов и шаблонов ответов

"А как же производительность?" - спросите вы. Отвечаю

Здесь начинается самое интересное. SurfSense не требует суперкомпьютера. Базовый RAG с небольшой моделью (например, Llama 3.2 3B) отлично работает на ноутбуке с 16 ГБ ОЗУ. Если нужна точность - поднимайте сервер с GPU и запускайте более крупные модели.

💡
Для начала попробуйте Qwen2.5-Coder-1.5B - отлично справляется с технической документацией и занимает минимум памяти. Подробнее о выборе маленьких моделей читайте в нашем обзоре "7 маленьких LLM на ноутбуке с 16 ГБ ОЗУ".

Пять минут до рабочего ассистента. Серьезно

Развертывание SurfSense проще, чем кажется. Если у вас уже стоит Docker - вы на полпути к успеху.

1 Поднимаем Ollama (если еще нет)

SurfSense работает с Ollama как с основным провайдером моделей. Если вы еще не знакомы с этим инструментом - самое время начать. Это стандарт де-факто для локального запуска LLM.

Важно: Ollama должен быть доступен из контейнера SurfSense. Самый простой способ - запустить Ollama на том же хосте и использовать host.docker.internal для подключения.

2 Запускаем SurfSense через Docker Compose

Клонируем репозиторий и запускаем одной командой:

git clone https://github.com/surfboardai/surfsense.git
cd surfsense
docker-compose up -d

Через пару минут интерфейс будет доступен на http://localhost:3000. База данных, бэкенд и фронтенд поднимаются автоматически.

3 Настраиваем подключение к LLM

В веб-интерфейсе переходим в настройки моделей и добавляем Ollama endpoint. Обычно это http://host.docker.internal:11434.

Затем выбираем модель из доступных в Ollama. Советую начать с чего-то среднего - Mistral 7B или Llama 3.1 8B отлично подходят для большинства задач.

Альтернативы? Есть. Но с нюансами

SurfSense - не единственный игрок на поле локальных RAG-систем. Но у него есть преимущества, которые сложно игнорировать.

Инструмент Плюсы Минусы
SurfSense Готовый Docker-образ, веб-интерфейс, мультиагентность Молодой проект, меньше сообщества
PrivateGPT Известный, проверенный временем Сложнее в настройке, менее красивый интерфейс
LlamaIndex + собственный фронтенд Максимальная гибкость Требует разработки, время на сборку

Если вам интересно сравнение других инструментов для локальных LLM, посмотрите наш обзор "LM Studio vs llama.cpp".

Реальные кейсы: где SurfSense выстреливает

Теория - это хорошо, но что на практике? Вот сценарии, где SurfSense работает лучше облачных альтернатив.

Техническая поддержка по внутренней базе знаний

Загружаете все мануалы, инструкции, FAQ. Новые сотрудники задают вопросы ассистенту вместо того, чтобы искать по десяти разным Confluence-страницам. И самое главное - вопросы о внутренних процессах не утекают в OpenAI.

Анализ юридических документов

Юристы загружают договоры, прецеденты, законодательные акты. SurfSense помогает находить противоречия, сравнивать формулировки, готовить выжимки. Конфиденциальность на уровне "физический сервер в вашем офисе".

Onboarding новых разработчиков

Вся кодовая база, документация к API, гайды по код-ревью - все в одном месте. Разработчик спрашивает: "Как у нас принято обрабатывать ошибки в микросервисах?" и получает ответ с примерами из реального кода.

💡
Для работы с кодом лучше использовать специализированные модели с поддержкой Tool Calling. Мы собрали лучшие варианты в статье "Обзор лучших LLM с поддержкой Tool Calling".

Подводные камни (да, они есть)

Не буду вас обманывать - идеального инструмента не существует. Вот с чем придется столкнуться:

  • Первая индексация больших объемов документов может занять время. Не ждите, что 50 ГБ Confluence проиндексируются за пять минут
  • Качество ответов напрямую зависит от выбранной модели. TinyLlama будет галлюцинировать чаще, чем Llama 3.1 70B
  • Нет мобильного приложения (пока что). Только веб-интерфейс
  • Требуется базовое понимание Docker для настройки и обновлений

Кому подойдет SurfSense? Три типа пользователей

1. IT-отделы средних и крупных компаний

Которые устали объяснять каждому сотруднику, где что лежит. Которые ценят приватность данных. Которые имеют свою инфраструктуру и не хотят зависеть от облачных провайдеров.

2. Юридические и финансовые организации

Где каждый документ - конфиденциальная информация. Где нельзя даже теоретически допустить утечку в облако. Где compliance-отдел одобрит только локальное решение.

3. Разработчики и инженеры

Которые хотят "поиграться" с RAG-технологиями без облачных подписок. Которые понимают, что иногда проще развернуть свой сервер, чем согласовывать бюджет на SaaS.

Что дальше? Мой прогноз

SurfSense - признак тренда. Мы движемся к миру, где корпоративные AI-инструменты будут разворачиваться локально по умолчанию. Облачные решения останутся для тех, кому лень возиться с настройкой.

Через год мы увидим:

  • Еще более простые one-click установщики (вроде того, о котором мы писали в этой статье)
  • Интеграцию с MCP-серверами для доступа к внешним API
  • Готовые шаблоны для разных отраслей (медицина, юриспруденция, разработка)

Попробуйте SurfSense сегодня. Запустите на тестовом сервере, загрузите пару документов, задайте вопросы. Если понравится - масштабируйте на всю компанию. Если нет - удалите контейнер и попробуйте что-то другое.

Главное - теперь у вас есть выбор. Не только между Glean и NotebookLM, но и между "облаком" и "своим сервером". И этот выбор, как показывает SurfSense, становится все проще с каждым днем.