Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1940 8 min

IQ vs Q квантования: как не сжечь видеокарту и не убить качество модели

Полное руководство по выбору типа квантования (IQ vs Q) для локальных LLM. Таблицы сравнения, практические рекомендации под разный VRAM, анализ потерь качества.

Открыть документ
Manual #1939 9 min

Как победить контекстный блот и 'зону тупости' в агентах: архитектура subagents от Deep Agents

Глубокий разбор архитектуры subagents от Deep Agents для изоляции контекста и специализации агентов. Практическое руководство по борьбе с контекстным блотом и з

Открыть документ
Manual #1937 8 min

Self-hosted AI-ассистенты для разработки: Tabby, Continue.dev и другие в 2026 году

Полное сравнение self-hosted AI-ассистентов для разработки в 2026: Tabby, Continue.dev, Cody. Как выбрать, настроить и развернуть приватное решение.

Открыть документ
Manual #1936 10 min

Полный гайд для начинающих: как с нуля запустить локальную LLM с памятью чатов и RAG

Пошаговое руководство по установке Ollama, настройке векторной базы данных и созданию полноценного RAG-системы с чат-памятью на домашнем ПК. Все инструменты акт

Открыть документ
Manual #1935 7 min

Создание мультиагентной системы с Llama 4 и Amazon Bedrock: практическое руководство по Strands Agents

Пошаговое создание мультиагентной системы на Amazon Bedrock с Llama 4 и Strands Agents. Архитектура, масштабирование, отказоустойчивость.

Открыть документ
Manual #1932 9 min

Дистилляция навыков аудита безопасности в Qwen3-14B: тонкая настройка на трассах DeepSeek

Практическое руководство по дистилляции навыков аудита безопасности в Qwen3-14B. Тонкая настройка на трассах DeepSeek, снижение затрат на 70%, готовая модель на

Открыть документ
Manual #1931 7 min

Структура против хаоса: почему Entity Cards бьют полный контекст в RAG-системах

F1-метрики, HotpotQA тесты и неожиданный вывод: Entity Cards на 37% эффективнее полного контекста для AI-агентов. Практическое руководство с кодом.

Открыть документ
Manual #1930 10 min

128 ГБ ОЗУ на Strix Halo: какие модели для кодирования реально работают, а какие — маркетинг

Практический гайд по выбору моделей 30B-100B параметров для локального кодирования на Strix Halo с 128 ГБ ОЗУ. Сравнение GGUF, AWQ, тесты производительности, кв

Открыть документ
Manual #1929 8 min

Гибридный AI-поиск по книгам: двухконтурная архитектура, векторизация метаданных и семантическое ранжирование на практике

Разбор кейса red_mad_robot: как построить гибридный поиск по 500k книг с двухконтурной архитектурой, векторизацией метаданных и LLM-ранжированием на практике в

Открыть документ
Manual #1928 11 min

LLM забывают середину: как правильно сортировать списки от Bulk до TrueSkill

Почему LLM портят ранжирование длинных списков? Сравниваем 5 методов: от простого Bulk до алгоритма TrueSkill. Реальная задача с 164 постами.

Открыть документ
Manual #1927 8 min

GLM 4.7 против Gemini 3: Битва за HTML5 Pacman — тест, промпты и неожиданный результат

Тестируем GLM 4.7 и Gemini 3 в создании клона Pacman на HTML5. Готовые промпты, настройки temperature=0, пошаговый разбор кода и неожиданный победитель. Сравнит

Открыть документ
Manual #1924 10 min

LLM как подчиненный: субъектный подход в архитектуре агентов

Продвинутый архитектурный паттерн: stateful ядро, логический слой и инверсия управления LLM. Решаем проблему стохастики моделей через субъектный подход.

Открыть документ