Зачем нужен ещё один локальный ассистент?
Все локальные модели страдают амнезией. Сессия закончилась — диалог забыт. Файлы на диске? Не вижу. Системные команды? Не умею. Temple Bridge — это попытка собрать полноценного офлайн-помощника, который работает как ChatGPT, но живёт в вашем Mac и никуда ничего не отправляет.
Проект построен на трёх китах: локальная модель (например, Hermes-3-Llama-3.1-8B), MCP (Model Context Protocol) для интеграции с инструментами и MLX от Apple для быстрой работы на железе M-серии. Всё вместе даёт систему, которая помнит ваши разговоры, читает ваши файлы и даже может управлять приложениями.
Важный момент: это не просто обёртка над llama.cpp. Temple Bridge добавляет к модели долгосрочную память (векторная база Chroma), доступ к файловой системе и инструменты для выполнения команд. По сути, вы получаете локальную альтернативу Claude Desktop, но без необходимости подключаться к Anthropic.
Из чего состоит этот конструктор?
Разберём по косточкам, что придётся устанавливать и настраивать.
- Ядро модели: Hermes-3-Llama-3.1-8B в 4-битном квантовании. Почему именно она? Компактная (5GB), умная для своего размера и отлично оптимизирована под MLX. Если у вас Mac с 16GB RAM — это ваш выбор. Для более мощных конфигураций можно взять GLM-4.7 или даже Qwen2.5-32B.
- Движок инференса: MLX вместо традиционных llama.cpp или vLLM. Apple специально затачивала его под свои нейронные процессоры, поэтому на M3 Ultra вы получаете до 200 токенов в секунду. Для сравнения — vLLM-MLX показывает схожие цифры, но требует больше возни с настройкой.
- Протокол и сервер: MCP (Model Context Protocol). Открытый стандарт от Anthropic, который позволяет подключать к модели инструменты. Temple Bridge реализует MCP-сервер с кучей расширений: файловый менеджер, поиск по памяти, управление процессами.
- Клиент: Claude Desktop (да, ирония) или любой другой MCP-клиент. Claude здесь работает просто как интерфейс, все вычисления происходят локально.
С чем конкурирует и в чём выигрывает
На рынке локальных ассистентов сейчас три основных игрока: LM Studio (красивый, но ограниченный интерфейс), Ollama (простой, но без инструментов) и KoboldCpp (мощный, но сложный).
| Инструмент | Память | Доступ к файлам | Инструменты | Сложность настройки |
|---|---|---|---|---|
| Temple Bridge | Да (Chroma) | Полный | Много через MCP | Высокая |
| Ollama | Нет | Ограниченный | Базовые | Низкая |
| LM Studio | Нет | Только загрузка | Нет | Очень низкая |
| KoboldCpp 1.106 | Да (опционально) | Ограниченный | Через расширения | Средняя |
Главное преимущество Temple Bridge — системность. Вы не просто общаетесь с моделью, а строите инфраструктуру. Через месяц использования у вас накапливается база знаний (векторное хранилище), история диалогов и набор автоматизированных workflow.
Кому это реально нужно?
Не всем. Если вам нужно просто попробовать локальную модель — ставьте Ollama и не мучайтесь. Temple Bridge для тех, кто:
- Работает с конфиденциальными данными. Юристы, врачи, финансисты — все, кому нельзя отправлять документы в облако.
- Автоматизирует рутину. Нужно каждый день анализировать отчёты в Excel, искать информацию в тысячах PDF или сортировать письма.
- Разрабатывает приватные приложения. Когда нужно встроить AI в продукт, но нельзя использовать OpenAI API.
- Исследует возможности локального AI. Энтузиасты, которые хотят понять, на что способно современное железо без интернета.
Для последней группы у нас есть отдельный материал про запуск LLM-инфраструктуры на домашнем железе. Там рассматриваются более мощные конфигурации.
Подводные камни, о которых молчат
Всё звучит идеально, пока не начнёшь настраивать. Вот что обычно идёт не так:
- Память жрёт всё. Chroma DB в фоне может съесть несколько гигабайт RAM. На Mac с 8GB это проблема.
- Инструменты — это код. Хотите, чтобы ассистент управлял Spotify? Пишите Python-скрипт. Готовых интеграций мало.
- MLX капризничает с моделями. Не всякая GGUF-модель запустится. Нужно искать специально собранные под MLX или конвертировать самому.
- MCP-клиенты нестабильны. Claude Desktop может внезапно перестать видеть сервер после обновления. Приходится перезапускать всё.
Самый частый вопрос: «Почему модель молчит 3 минуты перед ответом?» Это известная проблема llama.cpp, но в нашем случае она решается настройкой MLX. Если столкнётесь — смотрите наш гайд про устранение задержек в llama.cpp.
Что делать, когда одного Mac мало?
Hermes-3-Llama-3.1-8B — хороша для простых задач. Но если нужно обрабатывать тысячи документов или вести сложные диалоги, одного Apple Silicon не хватит. Тут два пути:
Первый — собрать кластер из нескольких Mac. MCP поддерживает распределённую работу, можно запустить Temple Bridge на нескольких машинах. Подробности в статье про мульти-нод кластер для локальных LLM.
Второй — перейти на PC с NVIDIA. RTX 4090 даёт в 3-4 раза большую скорость, но теряете преимущества MLX. Сравнение железа есть в материале RTX 3090 vs Apple Silicon vs Cloud.
Стоит ли игра свеч?
Если вы готовы потратить выходные на настройку — безусловно. Temple Bridge даёт уровень контроля, недоступный в облачных сервисах. Ваши данные никуда не уходят, вы можете добавить любую функциональность (хоть управление умным домом) и масштабировать систему под свои нужды.
Но приготовьтесь к постоянной возне. MCP-экосистема молодая, документация отрывочная, сообщество маленькое. Каждое обновление может сломать вашу конфигурацию.
Альтернатива? Ждать. Компании вроде Offloom уже делают готовые решения для не-технарей. Через год-два появятся стабильные продукты, которые не требуют знаний терминала.
А пока — если хотите офлайн-ассистента с памятью сегодня, Temple Bridge остаётся лучшим (и единственным) выбором для macOS.