Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3478 7 min

Qwen3-Code-Next: как не промахнуться с квантованием и не сломать код

Подробный гид по выбору квантования для Qwen3-Code-Next. Сравниваем Q4_K_XL, MXPF4, тесты производительности, размер файлов и качество генерации кода на актуаль

Открыть документ
Manual #3477 6 min

GLM-4.7-Flash: CPU-only, Hybrid или Full GPU? Реальный бенчмарк на серверном железе 2026

Сравнение производительности GLM-4.7-Flash: 20 vs 99 токенов/сек. Детальный тест CPU-only, Hybrid (exps=CPU) и Full GPU на серверном железе 2026 года.

Открыть документ
Manual #3476 9 min

Как проводить «хирургию мозга» LLM с помощью LoRA: пошаговый эксперимент по контролю поведения модели

Пошаговый эксперимент по тонкой настройке Qwen-2.5 3B через LoRA. Учимся контролировать поведение модели, меняя разные слои. Практический гайд на 2026 год.

Открыть документ
Manual #3475 8 min

Mac Mini M4 24GB vs ПК с Radeon 9070XT: ломаем мифы о железе для локальных LLM

Подробное сравнение Mac Mini M4 24GB и ПК с Radeon 9070XT для локальных LLM. Тесты скорости, поддержка моделей, реальная производительность и выбор платформы.

Открыть документ
Manual #3472 8 min

Knowledge Graphs для агентов: лучшая инфраструктура или избыточная сложность?

Полный разбор Knowledge Graphs для AI-агентов: когда графы знаний работают, а когда создают лишнюю сложность. Практические советы на 2026 год.

Открыть документ
Manual #3471 6 min

От отрицания к магии: личный путь инженера от скепсиса к стратегическому управлению ИИ-агентами

История инженера о преодолении отрицания, трансформации мышления и переходе от написания кода к оркестровке ИИ-агентов. Практические шаги на 2026 год.

Открыть документ
Manual #3469 7 min

Step 3.5 против Minimax M.2.5: кто реально круче на вашем железе?

Детальный разбор бенчмарков llama-bench, тестов iq4_kss квантования и реальной скорости tk/s для Step 3.5 и Minimax M.2.5 на локальном железе. Кого выбрать в 20

Открыть документ
Manual #3466 10 min

Ring-Mini-Linear-2.0 и другие гибридные модели: тест скорости и пригодности для кодинговых агентов

Сравнение гибридных LLM (shallow hybrid attention) для локальных кодинг-агентов. Скорость, точность, практические тесты на февраль 2026.

Открыть документ
Manual #3464 8 min

Как создать интерактивную историю с ИИ: расчёт токенов, выбор Gemini 2.5 Flash Light и сборка на Lovable/Supabase

Пошаговый гайд по созданию нелинейной интерактивной истории с ИИ. Расчёт стоимости токенов для Gemini 2.5 Flash Light, настройка бэкенда на Supabase и сборка фр

Открыть документ
Manual #3462 11 min

LLM-судья: строим пайплайн автоматической оценки локальных моделей без слепых тестов

Полный гайд по настройке LLM-as-a-Judge пайплайна для автоматической оценки локальных LLM. Код на GitHub, промпты, логирование, ошибки.

Открыть документ
Manual #3448 7 min

Как избежать иллюзии смысла: критический разбор ошибок предобработки данных в ML-анализе

Почему 80% ML-исследований не воспроизводятся? Глубокий разбор системных ошибок предобработки данных с примерами и исправлениями. Актуально на 2026.

Открыть документ
Manual #3442 8 min

Агентные фреймворки в 2026: эволюция от LangChain к наблюдаемости агентов

Экспертный взгляд на эволюцию агентных фреймворков к 2026 году. Почему наблюдаемость агентов стала важнее самого фреймворка и как выбрать инструмент сегодня.

Открыть документ