Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3503 8 min

Тренировка нейросетей на 40% дешевле: как Karpathy ломает экономику AI с помощью Flash Attention 3, Muon и Sliding Window

Разбираем техники от Karpathy для снижения стоимости тренировки моделей на 40% в год: Flash Attention 3 (9% ускорение), Muon optimizer, Sliding window attention

Открыть документ
Manual #3502 9 min

Полное руководство по сэндбоксингу AI-агентов: методы изоляции и безопасности

Пошаговое руководство по изоляции AI-агентов. Docker, gVisor, Firecracker, AppArmor, SELinux. Защита от prompt injection и jailbreak. Актуально на февраль 2026.

Открыть документ
Manual #3501 6 min

Генетическая эволюция машинного кода: как запустить 80B модель на RTX 4090 и не сжечь карту

Принципы работы системы AbeBot для генетической оптимизации машинного кода. Как запустить 80B модели на RTX 4090 через прямое исполнение и сокращение абстракций

Открыть документ
Manual #3495 9 min

Микро-LLM за 5 часов: Библия + C++ = странные галлюцинации

Пошаговый гайд по созданию микро-LLM с нуля за 5 часов. Код на Python, BPE токенизатор, эксперимент со смешанными датасетами (Библия + C++).

Открыть документ
Manual #3490 8 min

Copilot устал. Cursor дорогой. Как поставить локального китайского гения в VS Code

Полный гайд по замене Copilot/Cursor на локальные модели DeepSeek V3 или Qwen Coder. Настройка в VS Code, экономия денег, полная приватность.

Открыть документ
Manual #3489 10 min

Визуализация внимания GPT-2: как заставить модель «видеть» Bad Apple через оптимизацию эмбеддингов

Эксперимент по оптимизации эмбеддингов в GPT-2 для генерации карт внимания, соответствующих кадрам из Bad Apple. Подробное руководство с кодом.

Открыть документ
Manual #3484 9 min

Mac vs ПК с GPU для локальных LLM: детальный разбор стоимости, скорости и удобства в 2026

Подробное сравнение Apple Silicon M4 и ПК с NVIDIA/AMD для локальных LLM. Бенчмарки, стоимость владения, настройка Ollama и llama.cpp. Что выбрать в 2026?

Открыть документ
Manual #3483 9 min

Локальные LLM в 2025: с чего начать, если у вас есть компьютер и много вопросов

Полный гайд по запуску LLM на своем ПК в 2025: выбор видеокарты, инференс-стека, моделей. Разбор ошибок новичков и реальные цифры производительности.

Открыть документ
Manual #3482 8 min

Как собрать локальную рабочую станцию для обучения и дообучения LLM с нуля: железо, ПО и гранты

Полное руководство по сборке локальной станции для обучения LLM с нуля. Выбор железа, настройка ПО, поиск грантов и альтернативы облаку.

Открыть документ
Manual #3478 7 min

Qwen3-Code-Next: как не промахнуться с квантованием и не сломать код

Подробный гид по выбору квантования для Qwen3-Code-Next. Сравниваем Q4_K_XL, MXPF4, тесты производительности, размер файлов и качество генерации кода на актуаль

Открыть документ
Manual #3477 6 min

GLM-4.7-Flash: CPU-only, Hybrid или Full GPU? Реальный бенчмарк на серверном железе 2026

Сравнение производительности GLM-4.7-Flash: 20 vs 99 токенов/сек. Детальный тест CPU-only, Hybrid (exps=CPU) и Full GPU на серверном железе 2026 года.

Открыть документ
Manual #3476 9 min

Как проводить «хирургию мозга» LLM с помощью LoRA: пошаговый эксперимент по контролю поведения модели

Пошаговый эксперимент по тонкой настройке Qwen-2.5 3B через LoRA. Учимся контролировать поведение модели, меняя разные слои. Практический гайд на 2026 год.

Открыть документ