Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3609 8 min

Корпоративный LLM за бетонной стеной: как сэкономить $15 000 в месяц на токенах

Полное руководство по созданию корпоративного LLM-сервера в локальной сети. Экономия тысяч долларов в месяц, выбор оборудования (RTX A6000), актуальные модели 2

Открыть документ
Manual #3608 7 min

GLM-5-Q2 против GLM-4.7-Q4: битва квантований на математике и логике

Практическое тестирование IQ2_XXS и Q4_K_XL на математике и логике. Какая квантовка выжимает больше IQ из модели? Размеры, скорость, точность.

Открыть документ
Manual #3605 7 min

Почему INT8-модели врут на разных Snapdragon: подводные камни квантования на мобильных NPU

Технический разбор: почему квантованные модели теряют точность на разных Snapdragon. Сравнение чипсетов, анализ проблем NPU и практические решения.

Открыть документ
Manual #3602 8 min

Как правильно определить цель и метрики успеха для AI-проекта до начала разработки

Как избежать провала AI-проекта: пошаговый план определения целей и метрик от Senior DevOps. Актуально на 2026 год.

Открыть документ
Manual #3601 10 min

Как настроить OpenClaw: AI-ассистент, который работает с GitHub и почтой вместо тебя

Полный гайд по установке и настройке OpenClaw - локального AI-ассистента для автоматизации работы с GitHub Issues, PR и электронной почтой. Актуально на 2026 го

Открыть документ
Manual #3600 9 min

Strix Halo: полное руководство по настройке голосового AI-ассистента с локальными моделями (Whisper, Qwen, ComfyUI)

Пошаговое руководство по развертыванию Strix Halo - локального голосового ассистента с Whisper NPU, Qwen3-Coder и ComfyUI. Приватность и полный контроль.

Открыть документ
Manual #3598 7 min

Спекулятивный декодинг на AMD Strix Halo: ускорение MoE-моделей на APU с 128 ГБ памяти — теория и практика

Практическое руководство по спекулятивному декодингу MoE-моделей на AMD Strix Halo с 128 ГБ памяти. Настройка llama.cpp, бенчмарки, оптимизация GGUF.

Открыть документ
Manual #3596 10 min

Как собрать сервер за 10 000 евро для локальной транскрипции и медицинского ИИ: полный гайд по железу и ПО

Пошаговый гайд по сборке промышленного сервера для локального ИИ: Qwen3-30B, Parakeet RT, vLLM, Docker. Аппаратная спецификация и архитектура на 2026 год.

Открыть документ
Manual #3595 10 min

Локальная AI-станция за $1500: собираем систему для автономных агентов, которые не просят денег

Пошаговая сборка автономной AI-станции за $1500: OpenClaw для разработки, Qwen3-VL для видеоанализа, Frigate для мониторинга. Полная независимость от облаков.

Открыть документ
Manual #3594 11 min

LangGraph на практике: создаём агента, который помнит всё

Пошаговый гайд по созданию агента с долговременной памятью на LangGraph. Узлы, рёбра, состояние, эпизодическая память - всё с кодом на Python.

Открыть документ
Manual #3592 7 min

OpenClaw и безопасность Telegram-ботов: как настроить groupPolicy и защититься от промпт-инъекций

Пошаговая настройка dmPolicy и groupPolicy в OpenClaw 2.1.3. Как защитить Telegram-бота от промпт-инъекций через allowlist и sender ID. Решение ошибки groupAllo

Открыть документ
Manual #3590 8 min

Тест-драйв MiniMax M2.5: как локальная модель обошла Gemini 3 и Opus 4.6 в сложных рассуждениях

Независимый тест-драйв MiniMax M2.5. Как локальная модель показала лучшие результаты в сложных рассуждениях, чем облачные гиганты Gemini 3 и Opus 4.6. Методолог

Открыть документ