Temple Vault: файловая система как память для LLM через MCP сервер | AiManual
AiManual Logo Ai / Manual.
19 Янв 2026 Инструмент

Temple Vault: файловая система вместо векторных баз как память для LLM через MCP

Обзор Temple Vault - MCP сервера, который заменяет векторные базы данных на файловую систему для долгосрочной памяти AI-агентов. Установка, сравнение с MemGPT.

Когда векторные базы стали слишком сложными

Откройте любой гайд по долгосрочной памяти для LLM. В 99% случаев вам предложат векторную базу данных. Pinecone, Weaviate, Qdrant, Chroma. Установите Docker, настройте эмбеддинги, разберитесь с метаданными. Для простой задачи - запомнить, о чем вы говорили с агентом вчера.

Звучит знакомо? Вы тратите больше времени на инфраструктуру, чем на работу с самой моделью. И это при том, что современные LLM уже давно научились жульничать с памятью без сложных внешних систем.

Temple Vault: а что, если просто файлы?

Авторы Temple Vault задали простой вопрос. Зачем нам отдельная векторная база, если операционная система уже умеет хранить файлы? И создали MCP сервер, который использует файловую систему как основное хранилище для долгосрочной памяти LLM.

💡
MCP (Model Context Protocol) - открытый протокол от Anthropic для подключения внешних инструментов к LLM. Позволяет моделям читать файлы, работать с базами данных, вызывать API через стандартизированный интерфейс.

Установка занимает одну команду:

pip install temple-vault

И все. Никакого Docker, никаких отдельно стоящих сервисов. Просто Python-пакет, который создает структуру папок в вашей домашней директории.

Как это работает под капотом

Temple Vault организует память в иерархическую структуру:

  • Каждая сессия с агентом - отдельная папка
  • Внутри - файлы с временными метками и семантическими тегами
  • Поиск работает через локальный семантический индекс (использует sentence-transformers)
  • Когда нужно что-то вспомнить - система ищет по файлам и загружает релевантные фрагменты в контекст

Это напоминает подход из статьи про локальный RAG для миллионов PDF, но адаптированный под диалоговую память. Вместо сложных пайплайнов - просто файлы на диске.

Сравнение с альтернативами: MemGPT и компания

ИнструментАрхитектураЗависимостиСложность
Temple VaultФайловая система + локальный индексPython, sentence-transformersНизкая
MemGPTВекторная БД + иерархическая памятьPostgreSQL, Docker, эмбеддинг-сервисВысокая
Классический RAGВнешняя векторная БДDocker, облачный сервис, сетевые вызовыОчень высокая

MemGPT - отличный проект с продуманной архитектурой. Но он создан для исследователей, готовых развертывать сложные системы. Temple Vault - для разработчиков, которые хотят "просто работающую память" без головной боли.

Практические примеры использования

1Персональный исследовательский ассистент

Вы неделю изучаете тему оптимизации KV-cache. Каждый день задаете вопросы, получаете ответы. С Temple Vault агент помнит, что вы уже обсуждали binary KV-cache и какие выводы сделали. Не повторяет одни и те же объяснения.

2Долгосрочная разработка проекта

Работаете над приложением несколько месяцев. Обсуждаете архитектуру, принимаете решения, потом возвращаетесь через неделю. Вместо "напомни, почему мы выбрали именно эту библиотеку" - агент сразу дает контекст из прошлых обсуждений.

3Обучение с непрерывным контекстом

Изучаете сложную тему по шагам. Каждый следующий урок строится на предыдущем. Агент помнит, что вы уже прошли, и адаптирует объяснения. Как семантический пайплайн для LLM, но для обучения.

Ограничения и подводные камни

Не все так радужно. Файловая система - не панацея.

Скорость поиска по тысячам файлов будет ниже, чем у специализированной векторной БД. Для production-нагрузки с миллионами записей лучше использовать оптимизированные системы. Но для персонального использования или небольших команд - более чем достаточно.

Еще один нюанс - семантический поиск работает локально. Модели эмбеддингов занимают место на диске (обычно 100-500 МБ). Если у вас мало места на SSD, это может стать проблемой.

Кому подойдет Temple Vault

  • Разработчикам локальных AI-приложений, которые устали от Docker-контейнеров с векторными базами
  • Исследователям, экспериментирующим с долгосрочной памятью агентов
  • Командам, которым нужна простая shared memory для их AI-ассистентов
  • Всем, кто использует Claude Desktop или другие MCP-клиенты и хочет continuity между сессиями

Особенно актуально для тех, кто работает с LM Studio и MCP Filesystem - Temple Vault естественно встраивается в этот стек.

Что дальше? Будущее простых AI-систем

Temple Vault показывает тренд: сложные AI-системы становятся проще. Вместо микросервисных архитектур - монолиты с умной организацией. Вместо облачных зависимостей - локальные решения.

Это напоминает эволюцию V6rge или LlamaBarn - инструментов, которые скрывают сложность, оставляя только суть.

Совет напоследок: попробуйте Temple Vault, даже если у вас уже настроена векторная база. Иногда простое решение, которое "просто работает", оказывается ценнее оптимизированной, но сложной системы. Особенно когда нужно быстро прототипировать или работать в ограниченных условиях.

А если столкнетесь с проблемами производительности - всегда можно вернуться к классическому подходу. Но сначала дайте шанс файловой системе.