Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1360 7 min

Гибридный подход к RAG: построение индекса на GPU и обслуживание на CPU для масштабируемости и экономии

Практическое руководство по разделению RAG-системы: быстрая сборка индекса на GPU и дешёвое обслуживание на CPU. Снижаем TCO на 60-70% без потери качества.

Открыть документ
Manual #1357 8 min

Две Radeon AI Pro R9700 в одной системе: как заставить ROCm работать и построить оркестрацию агентов для локальных LLM

Практический опыт настройки двух видеокарт ASRock Radeon AI Pro R9700 для локальных LLM. ROCm проблемы, схема оркестрации агентов, Qwen3-vl квантование.

Открыть документ
Manual #1355 8 min

Заблокированная нейросеть: как дать локальной LLM доступ в интернет через Docker и Ministral

Практический гайд: даем локальной нейросети доступ к веб-страницам и актуальным данным через Docker, Ministral и обратный прокси. Пошаговая инструкция с примера

Открыть документ
Manual #1354 8 min

Сборка multi-GPU сервера для LLM: разбор кейса с 8× RTX 3090 и проблемы стабильности

Подробный разбор реального кейса сборки сервера с 8 видеокартами RTX 3090 для запуска больших языковых моделей. PCIe ризеры, проблемы bifurcation, стабильность

Открыть документ
Manual #1351 10 min

Напечатай на коленке: Полный цикл создания 3D-игрушки с помощью ИИ от текста до физического объекта

Пошаговый гайд: как превратить текстовое описание в 3D-игрушку с помощью Meshy AI, Tripo 3D и Kandinsky 5.0. Генерация моделей, подготовка к печати, постобработ

Открыть документ
Manual #1350 8 min

Локальный ИИ против Copilot: как сохранить карьерное преимущество в эпоху корпоративных нейросетей

Узнайте, как использовать локальный ИИ для карьерного роста в компании с Copilot. Безопасность данных, конкурентное преимущество, пошаговая настройка.

Открыть документ
Manual #1347 9 min

Безоблачный AI в игре: как запустить локальную Llama 3.1 на 6 ГБ VRAM через Tauri

Практический гайд по интеграции Llama 3.1 в desktop-приложения через Tauri. Оптимизация под 6 ГБ VRAM, настройка llama-server с Vulkan, выбор Q4_K_M квантования

Открыть документ
Manual #1346 9 min

Claude Code на Mac M3: как заменить облако локальными моделями и не сойти с ума

Полный гайд по замене Claude Code локальными моделями на Mac M3 Pro. Обзор кодинг-агентов, терминальных инструментов и оптимизация под Swift/Xcode разработку.

Открыть документ
Manual #1345 7 min

Квантование vs размер модели: почему 4-битная Llama 3 405B обгоняет FP16 70B в сложных рассуждениях

Парадокс квантования: 4-битная Llama 3 405B побеждает полноточную 70B в сложных рассуждениях. Разбираем бенчмарки LSAT, механику мышления и выбор между размером

Открыть документ
Manual #1344 9 min

Почему AI-агенты ломаются в продакшене: анализ проблем с состоянием, сайд-эффектами и аудитом

Глубокий разбор, почему AI-агенты ломаются в реальных системах. Анализ проблем с многошаговыми workflow, сайд-эффектами, состоянием и аудитом. Практические реше

Открыть документ
Manual #1343 8 min

RTX 6000 Pro (Blackwell) не POSTится на MSI Z790-P: решение проблемы совместимости

RTX 6000 Pro (Blackwell) не запускается на MSI Z790-P? Пошаговое решение через обновление BIOS, настройку PCIe и UEFI. Совместимость материнских плат для AI-раб

Открыть документ
Manual #1339 7 min

Как оценивать качество LLM-продукта: практическое руководство с датасетом и калибровкой

Практическое руководство по оценке качества LLM-продуктов. Разметка датасета, калибровка оценщиков, бинарные метки vs сравнения. Методология для инженеров и про

Открыть документ