Учебные материалы
IQ vs Q квантования: как не сжечь видеокарту и не убить качество модели
Полное руководство по выбору типа квантования (IQ vs Q) для локальных LLM. Таблицы сравнения, практические рекомендации под разный VRAM, анализ потерь качества.
Как победить контекстный блот и 'зону тупости' в агентах: архитектура subagents от Deep Agents
Глубокий разбор архитектуры subagents от Deep Agents для изоляции контекста и специализации агентов. Практическое руководство по борьбе с контекстным блотом и з
Self-hosted AI-ассистенты для разработки: Tabby, Continue.dev и другие в 2026 году
Полное сравнение self-hosted AI-ассистентов для разработки в 2026: Tabby, Continue.dev, Cody. Как выбрать, настроить и развернуть приватное решение.
Полный гайд для начинающих: как с нуля запустить локальную LLM с памятью чатов и RAG
Пошаговое руководство по установке Ollama, настройке векторной базы данных и созданию полноценного RAG-системы с чат-памятью на домашнем ПК. Все инструменты акт
Создание мультиагентной системы с Llama 4 и Amazon Bedrock: практическое руководство по Strands Agents
Пошаговое создание мультиагентной системы на Amazon Bedrock с Llama 4 и Strands Agents. Архитектура, масштабирование, отказоустойчивость.
Дистилляция навыков аудита безопасности в Qwen3-14B: тонкая настройка на трассах DeepSeek
Практическое руководство по дистилляции навыков аудита безопасности в Qwen3-14B. Тонкая настройка на трассах DeepSeek, снижение затрат на 70%, готовая модель на
Структура против хаоса: почему Entity Cards бьют полный контекст в RAG-системах
F1-метрики, HotpotQA тесты и неожиданный вывод: Entity Cards на 37% эффективнее полного контекста для AI-агентов. Практическое руководство с кодом.
128 ГБ ОЗУ на Strix Halo: какие модели для кодирования реально работают, а какие — маркетинг
Практический гайд по выбору моделей 30B-100B параметров для локального кодирования на Strix Halo с 128 ГБ ОЗУ. Сравнение GGUF, AWQ, тесты производительности, кв
Гибридный AI-поиск по книгам: двухконтурная архитектура, векторизация метаданных и семантическое ранжирование на практике
Разбор кейса red_mad_robot: как построить гибридный поиск по 500k книг с двухконтурной архитектурой, векторизацией метаданных и LLM-ранжированием на практике в
LLM забывают середину: как правильно сортировать списки от Bulk до TrueSkill
Почему LLM портят ранжирование длинных списков? Сравниваем 5 методов: от простого Bulk до алгоритма TrueSkill. Реальная задача с 164 постами.
GLM 4.7 против Gemini 3: Битва за HTML5 Pacman — тест, промпты и неожиданный результат
Тестируем GLM 4.7 и Gemini 3 в создании клона Pacman на HTML5. Готовые промпты, настройки temperature=0, пошаговый разбор кода и неожиданный победитель. Сравнит
LLM как подчиненный: субъектный подход в архитектуре агентов
Продвинутый архитектурный паттерн: stateful ядро, логический слой и инверсия управления LLM. Решаем проблему стохастики моделей через субъектный подход.