Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3226 8 min

AI-агенты против веб-форм: архитектура на основе BPMN и практическая реализация

Полное руководство по замене устаревших веб-форм на AI-агентов с управлением через BPMN. Практическая реализация, шаги, ошибки.

Открыть документ
Manual #3224 8 min

Dual RTX 5060 Ti vs Single RTX 5070 Ti: полный разбор сборки и бенчмарков для LLM на Blackwell

Полное сравнение двух RTX 5060 Ti против одной RTX 5070 Ti для локальных LLM. Аппаратная сборка, тесты llama.cpp, VRAM pooling и реальные цифры производительнос

Открыть документ
Manual #3223 8 min

Deepseek V3.2 vs конкуренты: полный анализ стоимости и производительности для API и локального запуска

Подробное сравнение Deepseek V3.2 с конкурентами по стоимости API, бенчмаркам кодирования и локальному запуску. Цены за токен, квантование, параллельные запросы

Открыть документ
Manual #3221 7 min

Хочешь вытащить свою LLM в интернет? Ты или гений, или самоубийца

Пошаговый гайд по безопасной публикации локальной нейросети в интернет. Настройка VPN, reverse proxy, аутентификации и защиты от атак на 2026 год.

Открыть документ
Manual #3220 12 min

RAG на 2 миллионах страниц: как не сломать всё и не разориться

Пошаговое руководство по построению RAG-системы на 2+ миллионах документов. Архитектура, оптимизация производительности, код и типичные ошибки.

Открыть документ
Manual #3219 5 min

RTX Pro 6000 SE против H100, H200, B200: реальная стоимость токена в vLLM на 2026 год

Полный бенчмарк RTX Pro 6000 SE против H100, H200, B200 в vLLM: токен/сек, стоимость инференса, эксперт-параллелизм. ROI-калькулятор для продакшена.

Открыть документ
Manual #3218 6 min

OpenAI Codex IDE в VSCode с локальным Ollama: заставляем работать то, что не должно

Полный гайд по подключению плагина OpenAI Codex IDE в VSCode к локальному Ollama. Конфигурация config.toml, модель qwen3-coder-next, офлайн-разработка без облак

Открыть документ
Manual #3217 8 min

Запуск 80B MoE-модели на iGPU NAS: пошаговая оптимизация llama.cpp с Vulkan для AMD Ryzen AI

Практический гайд по запуску Qwen3-Coder-Next 80B MoE на встроенной графике NAS через llama.cpp Vulkan. От 3 до 18 токен/с на AMD Ryzen AI с квантованием Q4_K_M

Открыть документ
Manual #3215 8 min

35x ускорение в llama.cpp: почему ngram-mod не работает и как исправить CRLF/LF

Пошаговое руководство по настройке ngram-mod в llama.cpp для 35x ускорения. Исправляем проблему с CRLF/LF в VS Code и git. Анализ производительности на 11.02.20

Открыть документ
Manual #3213 8 min

SAE Steering сломал JSON: почему популярный метод от Anthropic разрушает структурированный вывод

6 экспериментов показывают: активационное стеринг-управление (SAE Steering) разрушает JSON-вывод LLM. Обзор методов, которые действительно работают в 2026 году.

Открыть документ
Manual #3212 9 min

Персональный автокомплит для Discord: как заставить Qwen 14B говорить вашими словами

Пошаговый гайд по созданию персонального автокомплита для Discord: скрапинг сообщений, QLoRA финтюнинг Qwen 14B, развертывание в Ollama и Chrome-расширение.

Открыть документ
Manual #3211 9 min

Как собрать inference-сервер на Threadripper для 24/7 работы с большими моделями: сравнение TRX40 vs TRX50, GPU и бюджета

Практический гайд по сборке сервера для 24/7 инференса больших моделей на Threadripper. Сравнение TRX40 и TRX50, выбор GPU (RTX 6000 Pro, A40, L40S), бюджет от

Открыть документ