Почему обычные LLM - ужасные учителя (и как это исправить)
Вы замечали, что ChatGPT или Claude плохо учат? Задаёшь вопрос по физике - получаешь красивый, но бессистемный ответ. Просишь объяснить квантовую механику - нейросеть выдаёт поток сознания без структуры, без прогрессии от простого к сложному, без проверки понимания.
Это фундаментальная проблема LLM как учителей: они генерируют текст, а не создают образовательный опыт. Google пытается решить это с NotebookLM - инструмент анализирует ваши документы и строит диалог вокруг них. Но он облачный, платный (или ограниченный), и ваши данные улетают непонятно куда.
NotebookLM выглядит круто, пока не понимаешь, что все ваши конспекты, исследовательские работы и личные заметки теперь живут на серверах Google. Для корпоративного обучения или работы с чувствительными данными - это неприемлемо.
Personal-Guru: локальный мозг, который понимает, как вы учитесь
Personal-Guru - open-source проект, который решает проблему структурированного обучения. Это не просто чат-интерфейс к LLM. Это система, которая:
- Анализирует ваши документы (PDF, тексты, презентации) и создаёт персонализированный учебный план
- Строит обучение от основ к сложным концепциям с проверочными вопросами
- Работает полностью локально через Ollama - никаких облаков, никаких подписок
- Поддерживает мультимодальность: можно загружать изображения с текстом (скриншоты лекций, схемы)
- Сохраняет контекст вашего прогресса и адаптирует сложность
Если вы читали мою статью про перенос AI на свой компьютер, то понимаете философию: контроль над данными и процессами стоит небольших усилий по настройке.
1 Готовим железо и окружение
Personal-Guru работает на любом компьютере, но есть нюансы. Для комфортной работы нужен:
- Минимум 8 ГБ оперативной памяти (лучше 16+)
- Python 3.10 или новее
- Docker (опционально, но упрощает жизнь)
- Доступ в интернет для скачивания моделей (только первый раз)
2 Устанавливаем Ollama и загружаем модель
Ollama - это система для запуска LLM локально. Установка элементарная:
# На Linux/macOS
curl -fsSL https://ollama.ai/install.sh | sh
# На Windows - скачиваем exe с сайта ollama.ai
После установки загружаем модель. Для учебных целей рекомендую Llama 3.2 - она хорошо структурирует информацию:
ollama pull llama3.2:3b
# Или для более качественных ответов (но требует больше памяти)
ollama pull llama3.2:7b
Проверяем, что модель работает:
ollama run llama3.2:3b "Привет!"
3 Клонируем и настраиваем Personal-Guru
Теперь берём сам Personal-Guru с GitHub:
git clone https://github.com/your-username/personal-guru.git
cd personal-guru
Создаём виртуальное окружение и ставим зависимости:
python -m venv venv
source venv/bin/activate # На Windows: venv\Scripts\activate
pip install -r requirements.txt
Конфигурационный файл - это сердце системы. Создаём config.yaml:
# config.yaml
ollama:
base_url: "http://localhost:11434"
model: "llama3.2:3b"
rag:
chunk_size: 1000
chunk_overlap: 200
embedding_model: "nomic-embed-text"
plan_generation:
temperature: 0.3 # Низкая температура для более структурированных планов
max_tokens: 4000
ui:
port: 7860
theme: "light"
Ключевой параметр - temperature: 0.3. При генерации учебных планов нужна минимальная случайность. Если поставить 0.7-0.9 (как в чатах), получите творческие, но бесполезные для обучения планы.
4 Запускаем систему и загружаем первые документы
Запускаем Ollama в фоне:
ollama serve &
И запускаем Personal-Guru:
python app.py
Открываем браузер по адресу http://localhost:7860. Видим интерфейс с тремя основными вкладками:
- Document Upload - загрузка PDF, TXT, Markdown
- Plan Generation - создание учебного плана
- Interactive Learning - сам процесс обучения
Загружаем первый документ. Например, у вас есть конспект по машинному обучению в PDF. Перетаскиваете файл в интерфейс - система автоматически разбивает его на чанки, создаёт эмбеддинги и сохраняет в локальной векторной базе.
5 Генерируем учебный план - магия структурированного вывода
Вот где Personal-Guru отличается от простого чата. После загрузки документов нажимаем "Generate Learning Plan". Система анализирует весь контент и создаёт структурированный план в формате JSON:
{
"topic": "Машинное обучение для начинающих",
"prerequisites": ["Базовый Python", "Линейная алгебра"],
"weeks": [
{
"week_number": 1,
"title": "Введение в ML и линейная регрессия",
"concepts": ["Что такое ML", "Типы задач", "Метрики качества"],
"reading": ["Главы 1-2 из документа", "Статья о overfitting"],
"practice_questions": [
"Объясните разницу между supervised и unsupervised learning",
"Рассчитайте MSE для датасета"
]
}
],
"assessment_methods": ["Квизы", "Практические задания", "Финальный проект"]
}
Это не просто текст - это структурированные данные, которые система использует для построения диалога. Если вы работали с LLM Structured Outputs, то понимаете важность этого подхода.
6 Интерактивное обучение с адаптацией сложности
Теперь переходим в Interactive Learning. Система ведёт вас по плану, но с умом:
- Начинает с проверки prerequisites (если вы не знаете линейную алгебру, сначала объяснит основы)
- Задаёт вопросы после каждого раздела и оценивает ответы
- Если вы ошибаетесь - возвращается к теме, объясняет иначе
- Предлагает дополнительные материалы из загруженных документов
Вот пример диалога:
Система: Объясните, что такое gradient descent. Используйте пример с MSE.
Вы: Это метод оптимизации, где мы идём вниз по градиенту.
Система: Частично верно, но недостаточно конкретно. Давайте вернёмся к формуле MSE. Посмотрите на страницу 12 документа, где показан график. Как связана производная MSE с обновлением весов?
Где ломается система: 5 ошибок, которые вы совершите
Personal-Guru не идеален. Вот что обычно идёт не так:
| Ошибка | Почему происходит | Как исправить |
|---|---|---|
| План слишком общий | Модель слишком маленькая или temperature высокий | Используйте llama3.2:7b и temperature: 0.1 для планов |
| Система не находит ответы в документах | Чанки слишком большие или плохие эмбеддинги | chunk_size: 500, embedding_model: "bge-small-en-v1.5" |
| Медленная работа | Модель не помещается в память | Используйте --num-gpu-layers 20 в Ollama для частичной загрузки на GPU |
| Повторяющиеся вопросы | Контекст сбрасывается | Увеличьте context_window в настройках Ollama до 8192 |
| Некорректные ответы по специализированным темам | Модель не обучена на узкой теме | Добавьте больше документов по теме, используйте RAG |
Зачем это всё, если есть ChatGPT?
Вопрос законный. Ответ в трёх словах: приватность, контроль, специализация.
Когда вы обучаете сотрудников на внутренней документации, последнее, что нужно - чтобы промпты и ответы утекли. Personal-Guru работает полностью локально. Ваши документы никуда не уходят.
Контроль: вы можете модифицировать систему под свои нужды. Нужна интеграция с вашей LMS? Добавляете модуль. Хотите экспорт планов в Notion? Пишите плагин.
Специализация: ChatGPT знает всё понемногу, но ничего глубоко. Personal-Guru, обученный на ваших специфических документах (технические мануалы, медицинские исследования, юридические тексты), становится экспертом именно в вашей области.
Что дальше: куда развивать систему
Personal-Guru - это основа. Вот что можно добавить:
- Голосовой интерфейс - интеграция с локальным TTS/STT. Похоже на то, что я описывал в гайде про локальный голосовой ассистент
- Мультиагентность - разные AI-агенты для разных ролей: объясняющий, проверяющий, мотивирующий
- Аналитика прогресса - графики освоения тем, выявление слабых мест
- Экспорт в образовательные форматы - SCORM для корпоративных LMS, Anki-колоды для повторения
Самое интересное - возможность создать "пожизненного" тьютора, который знает всё, чему вы когда-либо учились, и может возвращаться к старым темам, когда они нужны для новых.
FAQ: короткие ответы на частые вопросы
Сколько стоит запуск?
Ноль рублей. Только электричество для компьютера. Модели бесплатные, код open-source.
Нужен ли интернет после установки?
Нет. Всё работает локально. Интернет нужен только для первоначальной загрузки моделей и обновлений.
Можно ли использовать для обучения команды?
Да, но нужно развернуть на сервере и настроить аутентификацию. Personal-Guru поддерживает многопользовательский режим через базу данных SQLite или PostgreSQL.
Какие языки поддерживаются?
Русский, английский, основные европейские языки. Зависит от модели в Ollama. Для русского лучше использовать модели, дообученные на русских текстах.
Главный совет: начните с простого. Возьмите одну тему, один документ, маленькую модель. Убедитесь, что система работает для вашего кейса. Потом масштабируйте. И помните - это инструмент, а не волшебство. Он не заменит хорошего преподавателя, но станет вашим персональным ассистентом в обучении, который доступен 24/7 и знает именно то, что нужно вам.