Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3286 8 min

6 месяцев провальных экспериментов с RL Fine-tuning: пошаговый разбор ошибок и советы для начинающих

Практический опыт 6 месяцев неудачных экспериментов с RL Fine-tuning. Конкретные ошибки SFT/RLFT, пошаговый разбор и советы для начинающих на 2026 год.

Открыть документ
Manual #3281 6 min

REAP против q2: когда память важнее точности? Реальные тесты на 120B моделях

Практическое сравнение REAP и низкого квантования (q2, q4) для моделей >30GB. Тесты потребления RAM, скорости генерации и качества ответов на реальном железе.

Открыть документ
Manual #3278 6 min

Как настроить DDoS-защиту и WAF, чтобы не блокировать легитимных ботов и нейрокраулеров

Практическое руководство по настройке DDoS-защиты и WAF в 2026 году без блокировки поисковых роботов и AI-краулеров. Шаги, правила, ошибки.

Открыть документ
Manual #3276 9 min

Cache-aware prefill–decode disaggregation: как ускорить обработку длинного контекста в LLM на 40%

Новая методика оптимизации инференса LLM с длинным контекстом: 40% QPS, снижение TTFT, принцип разделения нагрузки

Открыть документ
Manual #3271 6 min

Как собрать бюджетную систему для локальных AI-агентов: 2x AMD R9700, 64GB VRAM и Clojure-разработка

Как собрать систему с 2x AMD R9700, 64GB VRAM для локальных AI-агентов и разработки на Clojure. Пошаговый гайд по железу и софту на 2026 год.

Открыть документ
Manual #3270 7 min

Когда JTAG становится красной чертой: как GLM-5 думает о взломе и говорит "нет"

Полный разбор работы guardrails в GLM-5 на примере запроса о JTAG. Как модель анализирует намерения, использует reasoning traces и принимает решение о блокировк

Открыть документ
Manual #3269 7 min

GLM-5 захватывает трон: как июньский CLI проиграл китайской модели

Сравнительный анализ GLM-5, Minimax M2.5 и GPT-5.3-Codex с агентами Droid и CLI. Какая связка модель+агент сейчас лучшая для разработки.

Открыть документ
Manual #3267 7 min

GLM-5 против Claude и Codex: кейс по обратной инженерии USB-протокола и автоматическому исправлению кода

Практический бенчмарк AI-моделей для реверс-инжиниринга USB. Сравнение GLM-5, Claude Sonnet и GPT-5.2 Codex в анализе трафика tshark и автоматическом исправлени

Открыть документ
Manual #3266 14 min

AI-автосекретарь на своём сервере: как собрать систему с субсекундной задержкой и не сойти с ума от выбора моделей

Пошаговый гайд по сборке автономного AI-автосекретаря на локальном железе. Сравнение Llama 3.3 70B vs Qwen2.5 72B, выбор STT/TTS стека, деплой с vLLM, оптимизац

Открыть документ
Manual #3259 7 min

Реальные кейсы использования локальных моделей 30-100B: war stories по кодингу на Go, Python и агентским задачам

War stories использования локальных LLM 30-100B для кодинга на Go (Libp2p, BubbleTea), Python-скриптов на Raspberry Pi и агентских задач. Актуально на 2026.

Открыть документ
Manual #3257 5 min

GLM 5 против GPT-5.2: почему китайская модель оказалась умнее в бытовом вопросе

Анализ реального кейса: GLM 5 правильно ответил на бытовой вопрос, где GPT-5.2 провалился. Разбираем, почему здравый смысл важнее параметров.

Открыть документ
Manual #3248 7 min

Swann против уведомлений: как Amazon Bedrock превращает миллионы IoT-оповещений в осмысленные сигналы

Архитектурный кейс Swann: как обрабатывать миллионы IoT-оповещений с помощью Claude 4.5 и Amazon Bedrock, снижая усталость от уведомлений на 87%.

Открыть документ