Personal-Guru: локальный AI-тьютор вместо NotebookLM - пошаговый гайд | AiManual
AiManual Logo Ai / Manual.
18 Янв 2026 Гайд

Как создать персонализированный AI-тьютор с Personal-Guru: локальная альтернатива NotebookLM

Полный гайд по созданию приватного AI-тьютора с Personal-Guru и Ollama. Генерация учебных планов, работа с документами, локальное обучение без облаков.

Почему обычные LLM - ужасные учителя (и как это исправить)

Вы замечали, что ChatGPT или Claude плохо учат? Задаёшь вопрос по физике - получаешь красивый, но бессистемный ответ. Просишь объяснить квантовую механику - нейросеть выдаёт поток сознания без структуры, без прогрессии от простого к сложному, без проверки понимания.

Это фундаментальная проблема LLM как учителей: они генерируют текст, а не создают образовательный опыт. Google пытается решить это с NotebookLM - инструмент анализирует ваши документы и строит диалог вокруг них. Но он облачный, платный (или ограниченный), и ваши данные улетают непонятно куда.

NotebookLM выглядит круто, пока не понимаешь, что все ваши конспекты, исследовательские работы и личные заметки теперь живут на серверах Google. Для корпоративного обучения или работы с чувствительными данными - это неприемлемо.

Personal-Guru: локальный мозг, который понимает, как вы учитесь

Personal-Guru - open-source проект, который решает проблему структурированного обучения. Это не просто чат-интерфейс к LLM. Это система, которая:

  • Анализирует ваши документы (PDF, тексты, презентации) и создаёт персонализированный учебный план
  • Строит обучение от основ к сложным концепциям с проверочными вопросами
  • Работает полностью локально через Ollama - никаких облаков, никаких подписок
  • Поддерживает мультимодальность: можно загружать изображения с текстом (скриншоты лекций, схемы)
  • Сохраняет контекст вашего прогресса и адаптирует сложность

Если вы читали мою статью про перенос AI на свой компьютер, то понимаете философию: контроль над данными и процессами стоит небольших усилий по настройке.

1 Готовим железо и окружение

Personal-Guru работает на любом компьютере, но есть нюансы. Для комфортной работы нужен:

  • Минимум 8 ГБ оперативной памяти (лучше 16+)
  • Python 3.10 или новее
  • Docker (опционально, но упрощает жизнь)
  • Доступ в интернет для скачивания моделей (только первый раз)
💡
Если у вас слабый компьютер, выбирайте меньшие модели типа TinyLlama или Phi-2. Они работают даже на CPU. Для мощных систем подойдут Mixtral или Llama 3.1. В статье про CPU-инференс Mistral-7B я подробно разбирал, как выжать максимум из процессора.

2 Устанавливаем Ollama и загружаем модель

Ollama - это система для запуска LLM локально. Установка элементарная:

# На Linux/macOS
curl -fsSL https://ollama.ai/install.sh | sh

# На Windows - скачиваем exe с сайта ollama.ai

После установки загружаем модель. Для учебных целей рекомендую Llama 3.2 - она хорошо структурирует информацию:

ollama pull llama3.2:3b
# Или для более качественных ответов (но требует больше памяти)
ollama pull llama3.2:7b

Проверяем, что модель работает:

ollama run llama3.2:3b "Привет!"

3 Клонируем и настраиваем Personal-Guru

Теперь берём сам Personal-Guru с GitHub:

git clone https://github.com/your-username/personal-guru.git
cd personal-guru

Создаём виртуальное окружение и ставим зависимости:

python -m venv venv
source venv/bin/activate  # На Windows: venv\Scripts\activate
pip install -r requirements.txt

Конфигурационный файл - это сердце системы. Создаём config.yaml:

# config.yaml
ollama:
  base_url: "http://localhost:11434"
  model: "llama3.2:3b"

rag:
  chunk_size: 1000
  chunk_overlap: 200
  embedding_model: "nomic-embed-text"

plan_generation:
  temperature: 0.3  # Низкая температура для более структурированных планов
  max_tokens: 4000

ui:
  port: 7860
  theme: "light"

Ключевой параметр - temperature: 0.3. При генерации учебных планов нужна минимальная случайность. Если поставить 0.7-0.9 (как в чатах), получите творческие, но бесполезные для обучения планы.

4 Запускаем систему и загружаем первые документы

Запускаем Ollama в фоне:

ollama serve &

И запускаем Personal-Guru:

python app.py

Открываем браузер по адресу http://localhost:7860. Видим интерфейс с тремя основными вкладками:

  1. Document Upload - загрузка PDF, TXT, Markdown
  2. Plan Generation - создание учебного плана
  3. Interactive Learning - сам процесс обучения

Загружаем первый документ. Например, у вас есть конспект по машинному обучению в PDF. Перетаскиваете файл в интерфейс - система автоматически разбивает его на чанки, создаёт эмбеддинги и сохраняет в локальной векторной базе.

💡
Для технических документов используйте Markdown-формат. Personal-Guru лучше понимает структурированный текст с заголовками, списками и кодом. Если у вас скриншоты лекций - конвертируйте их в текст через OCR (система поддерживает Tesseract).

5 Генерируем учебный план - магия структурированного вывода

Вот где Personal-Guru отличается от простого чата. После загрузки документов нажимаем "Generate Learning Plan". Система анализирует весь контент и создаёт структурированный план в формате JSON:

{
  "topic": "Машинное обучение для начинающих",
  "prerequisites": ["Базовый Python", "Линейная алгебра"],
  "weeks": [
    {
      "week_number": 1,
      "title": "Введение в ML и линейная регрессия",
      "concepts": ["Что такое ML", "Типы задач", "Метрики качества"],
      "reading": ["Главы 1-2 из документа", "Статья о overfitting"],
      "practice_questions": [
        "Объясните разницу между supervised и unsupervised learning",
        "Рассчитайте MSE для датасета"
      ]
    }
  ],
  "assessment_methods": ["Квизы", "Практические задания", "Финальный проект"]
}

Это не просто текст - это структурированные данные, которые система использует для построения диалога. Если вы работали с LLM Structured Outputs, то понимаете важность этого подхода.

6 Интерактивное обучение с адаптацией сложности

Теперь переходим в Interactive Learning. Система ведёт вас по плану, но с умом:

  • Начинает с проверки prerequisites (если вы не знаете линейную алгебру, сначала объяснит основы)
  • Задаёт вопросы после каждого раздела и оценивает ответы
  • Если вы ошибаетесь - возвращается к теме, объясняет иначе
  • Предлагает дополнительные материалы из загруженных документов

Вот пример диалога:

Система: Объясните, что такое gradient descent. Используйте пример с MSE.

Вы: Это метод оптимизации, где мы идём вниз по градиенту.

Система: Частично верно, но недостаточно конкретно. Давайте вернёмся к формуле MSE. Посмотрите на страницу 12 документа, где показан график. Как связана производная MSE с обновлением весов?

Где ломается система: 5 ошибок, которые вы совершите

Personal-Guru не идеален. Вот что обычно идёт не так:

Ошибка Почему происходит Как исправить
План слишком общий Модель слишком маленькая или temperature высокий Используйте llama3.2:7b и temperature: 0.1 для планов
Система не находит ответы в документах Чанки слишком большие или плохие эмбеддинги chunk_size: 500, embedding_model: "bge-small-en-v1.5"
Медленная работа Модель не помещается в память Используйте --num-gpu-layers 20 в Ollama для частичной загрузки на GPU
Повторяющиеся вопросы Контекст сбрасывается Увеличьте context_window в настройках Ollama до 8192
Некорректные ответы по специализированным темам Модель не обучена на узкой теме Добавьте больше документов по теме, используйте RAG

Зачем это всё, если есть ChatGPT?

Вопрос законный. Ответ в трёх словах: приватность, контроль, специализация.

Когда вы обучаете сотрудников на внутренней документации, последнее, что нужно - чтобы промпты и ответы утекли. Personal-Guru работает полностью локально. Ваши документы никуда не уходят.

Контроль: вы можете модифицировать систему под свои нужды. Нужна интеграция с вашей LMS? Добавляете модуль. Хотите экспорт планов в Notion? Пишите плагин.

Специализация: ChatGPT знает всё понемногу, но ничего глубоко. Personal-Guru, обученный на ваших специфических документах (технические мануалы, медицинские исследования, юридические тексты), становится экспертом именно в вашей области.

💡
Для бизнеса это особенно важно. В статье про ИИ-агенты для бизнеса я показывал, как локальные системы выигрывают у облачных в корпоративном секторе.

Что дальше: куда развивать систему

Personal-Guru - это основа. Вот что можно добавить:

  • Голосовой интерфейс - интеграция с локальным TTS/STT. Похоже на то, что я описывал в гайде про локальный голосовой ассистент
  • Мультиагентность - разные AI-агенты для разных ролей: объясняющий, проверяющий, мотивирующий
  • Аналитика прогресса - графики освоения тем, выявление слабых мест
  • Экспорт в образовательные форматы - SCORM для корпоративных LMS, Anki-колоды для повторения

Самое интересное - возможность создать "пожизненного" тьютора, который знает всё, чему вы когда-либо учились, и может возвращаться к старым темам, когда они нужны для новых.

FAQ: короткие ответы на частые вопросы

Сколько стоит запуск?

Ноль рублей. Только электричество для компьютера. Модели бесплатные, код open-source.

Нужен ли интернет после установки?

Нет. Всё работает локально. Интернет нужен только для первоначальной загрузки моделей и обновлений.

Можно ли использовать для обучения команды?

Да, но нужно развернуть на сервере и настроить аутентификацию. Personal-Guru поддерживает многопользовательский режим через базу данных SQLite или PostgreSQL.

Какие языки поддерживаются?

Русский, английский, основные европейские языки. Зависит от модели в Ollama. Для русского лучше использовать модели, дообученные на русских текстах.

Главный совет: начните с простого. Возьмите одну тему, один документ, маленькую модель. Убедитесь, что система работает для вашего кейса. Потом масштабируйте. И помните - это инструмент, а не волшебство. Он не заменит хорошего преподавателя, но станет вашим персональным ассистентом в обучении, который доступен 24/7 и знает именно то, что нужно вам.