Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3550 9 min

Локальные модели 20-100B для кодинга: как не промахнуться с выбором и не сжечь видеокарту

Практический гайд по выбору локальной LLM для кодинга: сравниваем Qwen3-32B-Coder, GLM-4.7-Flash, DeepSeek-Coder, считаем VRAM, тестируем на реальных задачах. О

Открыть документ
Manual #3547 10 min

FunctionGemma 270M: как заставить крошку вызывать инструменты в диалоге с 97% точностью

Практический гайд по fine-tuning FunctionGemma 270M для multi-turn tool calling. От 10% до 97% accuracy с knowledge distillation. Датасеты, код, результаты.

Открыть документ
Manual #3546 8 min

Claude Code в AWS GovCloud: Как заставить AI работать с военными секретами и не сесть в тюрьму

Полное руководство по запуску Claude Sonnet 4.5 и Claude Code в AWS GovCloud для регулируемых рабочих нагрузок. FedRAMP High, ITAR compliance, IL 4/5 и защита д

Открыть документ
Manual #3545 6 min

Qwen 3 Max-Thinking против Qwen 3.5: MineBench показал, насколько «безумно» улучшилось пространственное мышление

Тестирование пространственного мышления: Qwen 3 Max-Thinking показывает прорыв против Qwen 3.5 на бенчмарке MineBench. Данные на 16.02.2026.

Открыть документ
Manual #3544 6 min

Открытый код на троне: какую модель выбрать в 2026 году по рейтингу OpenRouter

Анализ топ open-source моделей на OpenRouter в 2026 году. Сравнение Arcee Trinity, Qwen 2.5 MoE, Mixtral 12x22B v2. Как выбрать модель для вашей задачи.

Открыть документ
Manual #3541 7 min

Как ИИ увеличивает поток ошибок: антипаттерны разработки и контроль качества при работе с нейросетями

Почему нейросети генерируют баги, как избежать антипаттернов и внедрить контроль качества при работе с ИИ-помощниками. Практический гайд от Senior DevOps.

Открыть документ
Manual #3540 7 min

Оптимизация DeepSeek-V3.2 на llama.cpp: как исправить n_ctx_seq < n_ctx_train и настроить оффлоад слоев

Полное руководство по исправлению ошибки n_ctx_seq < n_ctx_train и тонкой настройке оффлоада слоев GPU/CPU для DeepSeek-V3.2 в llama.cpp. Актуальные команды и п

Открыть документ
Manual #3539 7 min

Разбор провала RAG в продакшене: проблема "Разделённой истины" и галлюцинации LLM на устаревших резюме

Пост-мортем реального инцидента с RAG-системой. Технический разбор проблемы согласованности векторного хранилища и базы данных, ведущей к галлюцинациям LLM.

Открыть документ
Manual #3537 8 min

Интернет пропал, а помощь пришла: как Qwen3:14B на Arch Linux сам себя починил

Реальный кейс: локальная модель Qwen3:14B через Ollama помогла восстановить интернет на Arch Linux без доступа в сеть. Подробный разбор, настройка и выводы.

Открыть документ
Manual #3534 9 min

Q8 vs Q6: полный гайд по выбору квантования для локальных LLM в 2024

Полный гайд по выбору между Q8 и Q6 квантованием для локальных LLM. Сравнение VRAM, скорости, perplexity и практические рекомендации для 2024 года.

Открыть документ
Manual #3533 12 min

Как убить задержку в голосовом AI для нескольких пользователей: WebRTC, Fishjam и серверный VAD

Гайд по созданию голосового AI с задержкой <1с для нескольких пользователей: WebRTC, Fishjam SFU и серверный VAD. Архитектура и код на 2026 год.

Открыть документ
Manual #3532 10 min

Локальный голосовой агент с задержкой 375 мс: Nemotron-4 + Kokoro-82M на bare metal

Полный гайд по сборке локального голосового AI-агента с задержкой 375 мс. Nemotron-4 340B с квантованием 4-bit, Kokoro-82M TTS, bare metal сервер. Пошаговая инс

Открыть документ