Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2987 6 min

Как ИИ-агенты Claude создали культ «Клешни»: разбор логов и анализ поведения автономных систем

Разбор реального кейса: как автономные агенты Claude 4.6 создали собственную религию. Логи, код и выводы для разработчиков AI-систем.

Открыть документ
Manual #2986 9 min

Автономный исследовательский агент на AnythingLLM: как обработать 10 000 PDF локально на 32 ГБ ОЗУ

Пошаговый гайд по созданию автономного исследовательского агента на AnythingLLM для обработки 10 000 PDF файлов локально на 32 ГБ ОЗУ. Архитектура, оптимизация,

Открыть документ
Manual #2984 8 min

Запуск LLM прямо в браузере: полный гайд по WebGPU, Transformers.js и Chrome Prompt API

Пошаговый гайд по запуску языковых моделей в браузере без серверов. WebGPU, Transformers.js, кэширование в IndexedDB и мониторинг памяти. Актуально на 07.02.202

Открыть документ
Manual #2982 7 min

Топ-5 бесплатных нейросетей для синтеза речи в 2026: тест на сложном русском тексте

Практическое сравнение 5 лучших бесплатных нейросетей для синтеза речи в 2026 году. Тест на сложном русском тексте с именами, аббревиатурами и числами.

Открыть документ
Manual #2980 7 min

20-30B MoE для tool calling: кто не галлюцинирует с файлами и поиском?

Тестируем 20-30B MoE модели на чтение файлов и веб-поиск. Сравнение Qwen2.5-32B-Instruct, DeepSeek-V3-16B, Yi-1.5-34B и других на реальных задачах.

Открыть документ
Manual #2978 10 min

Как создать свой собственный LLM-инференс-движок: опыт оптимизации для CPU и Raspberry Pi 5

Практический гайд по созданию LLM-инференс-движка с оптимизацией памяти до 1.2 ГБ и скоростью 0.2 с/токен на CPU. Сравнение с LM Studio.

Открыть документ
Manual #2976 9 min

Adaptive Thinking в Opus 4.6: как Anthropic автоматизировала выбор глубины reasoning и что это даёт разработчикам

Разбираем Adaptive Thinking в Claude Opus 4.6 — как Anthropic автоматизировала выбор think/ultrathink режимов и что это значит для вашего кода и бюджета.

Открыть документ
Manual #2972 7 min

Пошаговый гайд: сборка llama.cpp с SYCL для Intel Arc и тест Qwen3-Coder-Next

Полный гайд по сборке llama.cpp с SYCL бэкендом для Intel Arc GPU. Установка oneAPI, настройка Fedora, тест производительности Qwen3-Coder-Next на 07.02.2026.

Открыть документ
Manual #2970 9 min

OpenClaw vs память-ориентированные агенты: битва архитектур, которая сэкономит вам 75% токенов

Техническое сравнение OpenClaw и память-ориентированных агентов: производительность, стоимость токенов, установка Ollama. Как экономить до 75% на AI-агентах.

Открыть документ
Manual #2968 5 min

Nemo 30B с 1 миллионом токенов на RTX 3090: когда контекст длиннее романа Достоевского

Подробный гайд по запуску модели Nemo 30B с контекстом 1 миллион токенов на одной видеокарте RTX 3090. Оптимизация llama.cpp, CPU offloading, сравнение производ

Открыть документ
Manual #2966 6 min

Fine-tuning в 2026: почему 90% команд тратят ресурсы впустую

Практический гайд по выбору между fine-tuning и prompt-tuning в 2026. Когда тратить ресурсы на дообучение, а когда промптов достаточно.

Открыть документ
Manual #2963 7 min

GPT-OSS-20B против GLM-4.7-Flash и Step-3.5-Flash: где ваши токены утекают в песок

Технический анализ трех локальных LLM на 07.02.2026: сравниваем качество reasoning, потребление токенов и практическую применимость для домашних AI-лабораторий.

Открыть документ