Когда векторные базы стали слишком сложными
Откройте любой гайд по долгосрочной памяти для LLM. В 99% случаев вам предложат векторную базу данных. Pinecone, Weaviate, Qdrant, Chroma. Установите Docker, настройте эмбеддинги, разберитесь с метаданными. Для простой задачи - запомнить, о чем вы говорили с агентом вчера.
Звучит знакомо? Вы тратите больше времени на инфраструктуру, чем на работу с самой моделью. И это при том, что современные LLM уже давно научились жульничать с памятью без сложных внешних систем.
Temple Vault: а что, если просто файлы?
Авторы Temple Vault задали простой вопрос. Зачем нам отдельная векторная база, если операционная система уже умеет хранить файлы? И создали MCP сервер, который использует файловую систему как основное хранилище для долгосрочной памяти LLM.
Установка занимает одну команду:
pip install temple-vaultИ все. Никакого Docker, никаких отдельно стоящих сервисов. Просто Python-пакет, который создает структуру папок в вашей домашней директории.
Как это работает под капотом
Temple Vault организует память в иерархическую структуру:
- Каждая сессия с агентом - отдельная папка
- Внутри - файлы с временными метками и семантическими тегами
- Поиск работает через локальный семантический индекс (использует sentence-transformers)
- Когда нужно что-то вспомнить - система ищет по файлам и загружает релевантные фрагменты в контекст
Это напоминает подход из статьи про локальный RAG для миллионов PDF, но адаптированный под диалоговую память. Вместо сложных пайплайнов - просто файлы на диске.
Сравнение с альтернативами: MemGPT и компания
| Инструмент | Архитектура | Зависимости | Сложность |
|---|---|---|---|
| Temple Vault | Файловая система + локальный индекс | Python, sentence-transformers | Низкая |
| MemGPT | Векторная БД + иерархическая память | PostgreSQL, Docker, эмбеддинг-сервис | Высокая |
| Классический RAG | Внешняя векторная БД | Docker, облачный сервис, сетевые вызовы | Очень высокая |
MemGPT - отличный проект с продуманной архитектурой. Но он создан для исследователей, готовых развертывать сложные системы. Temple Vault - для разработчиков, которые хотят "просто работающую память" без головной боли.
Практические примеры использования
1Персональный исследовательский ассистент
Вы неделю изучаете тему оптимизации KV-cache. Каждый день задаете вопросы, получаете ответы. С Temple Vault агент помнит, что вы уже обсуждали binary KV-cache и какие выводы сделали. Не повторяет одни и те же объяснения.
2Долгосрочная разработка проекта
Работаете над приложением несколько месяцев. Обсуждаете архитектуру, принимаете решения, потом возвращаетесь через неделю. Вместо "напомни, почему мы выбрали именно эту библиотеку" - агент сразу дает контекст из прошлых обсуждений.
3Обучение с непрерывным контекстом
Изучаете сложную тему по шагам. Каждый следующий урок строится на предыдущем. Агент помнит, что вы уже прошли, и адаптирует объяснения. Как семантический пайплайн для LLM, но для обучения.
Ограничения и подводные камни
Не все так радужно. Файловая система - не панацея.
Скорость поиска по тысячам файлов будет ниже, чем у специализированной векторной БД. Для production-нагрузки с миллионами записей лучше использовать оптимизированные системы. Но для персонального использования или небольших команд - более чем достаточно.
Еще один нюанс - семантический поиск работает локально. Модели эмбеддингов занимают место на диске (обычно 100-500 МБ). Если у вас мало места на SSD, это может стать проблемой.
Кому подойдет Temple Vault
- Разработчикам локальных AI-приложений, которые устали от Docker-контейнеров с векторными базами
- Исследователям, экспериментирующим с долгосрочной памятью агентов
- Командам, которым нужна простая shared memory для их AI-ассистентов
- Всем, кто использует Claude Desktop или другие MCP-клиенты и хочет continuity между сессиями
Особенно актуально для тех, кто работает с LM Studio и MCP Filesystem - Temple Vault естественно встраивается в этот стек.
Что дальше? Будущее простых AI-систем
Temple Vault показывает тренд: сложные AI-системы становятся проще. Вместо микросервисных архитектур - монолиты с умной организацией. Вместо облачных зависимостей - локальные решения.
Это напоминает эволюцию V6rge или LlamaBarn - инструментов, которые скрывают сложность, оставляя только суть.
Совет напоследок: попробуйте Temple Vault, даже если у вас уже настроена векторная база. Иногда простое решение, которое "просто работает", оказывается ценнее оптимизированной, но сложной системы. Особенно когда нужно быстро прототипировать или работать в ограниченных условиях.
А если столкнетесь с проблемами производительности - всегда можно вернуться к классическому подходу. Но сначала дайте шанс файловой системе.