Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #498 8 min

AMD 7900 XTX + ROCm: полный бенчмарк llama.cpp vs vLLM на eGPU через Thunderbolt 3

Эксклюзивный тест производительности 8 LLM на AMD 7900 XTX через Thunderbolt 3. Сравнение llama.cpp и vLLM, реальная скорость токенов, ограничения eGPU и настро

Открыть документ
Manual #496 8 min

Сборка llama.cpp не для всех: как заставить его летать на твоём железе

Полный гайд по сборке llama.cpp с MKL, CUDA архитектурой, AVX2 и Vulkan. Флаги CMake для i7, RTX, AMD. Ускорение инференса в 3-5 раз.

Открыть документ
Manual #495 11 min

Как создать AI-радиостанцию на базе Qwen 1.5B и Piper TTS: туториал по VibeCast

Пошаговый гайд по созданию локальной AI-радиостанции с генерацией скриптов, синтезом речи и веб-интерфейсом. Работает полностью офлайн.

Открыть документ
Manual #494 8 min

Как создать Text-to-SQL агента для бизнеса: архитектура, guardrails и достижение 96% точности с Llama 3

Практическое руководство по созданию production-ready Text-to-SQL агента с архитектурой на LangChain, strict schema binding, guardrails и 96% точностью на Llama

Открыть документ
Manual #493 8 min

Техническое расследование: как обнаружить производные модели через анализ весов и кода

Полное руководство по техническому расследованию производных моделей. Анализ косинусной схожести весов, исследование кода моделирования и поиск следов копирован

Открыть документ
Manual #492 11 min

Паразитные паттерны в LLM: как распознать ИИ-психозы, теории всего и остановить заражение диалога

Полное руководство по диагностике и устранению паразитных паттернов в LLM: самоподдерживающиеся структуры, ИИ-психозы, промпт "Продолжай" и методы стабилизации

Открыть документ
Manual #481 9 min

Разгон 6700XT под ROCm: полный гайд по сборке стека для локальных LLM

Подробное руководство по разгону AMD Radeon 6700XT и сборке полного стека ПО для локальных языковых моделей (LLM) под ROCm с OpenWeb UI и мультимодальностью.

Открыть документ
Manual #479 9 min

Локальная замена TalkTasic: какие OSS-модели умеют видеть экран и диктовать код?

Полный гайд по сборке локального аналога TalkTasic на открытых мультимодальных моделях. Обзор моделей с поддержкой зрения и слуха, пошаговая интеграция и решени

Открыть документ
Manual #477 7 min

Как запустить локальную LLM-инфраструктуру на домашнем железе (192GB RAM + GPU)

Пошаговое руководство по развертыванию многопользовательской LLM-инфраструктуры на домашнем сервере с 192GB RAM и GPU. Proxmox, OpenWebUI, GPU passthrough.

Открыть документ
Manual #475 7 min

AMD vs NVIDIA для локального ИИ в 2025: наконец-то паритет или всё ещё ад?

Полное сравнение AMD и NVIDIA GPU для локального ИИ в 2025. Совместимость с LM Studio, производительность, настройка под Linux и ответ на вопрос: паритет или не

Открыть документ
Manual #473 6 min

Как собрать домашний ИИ-сервер на Orange Pi: гайд по установке Ollama и запуску 70B моделей

Пошаговый гайд по сборке домашнего ИИ-сервера на Orange Pi с Ascend 310. Установка Ollama, драйверов и запуск больших LLM моделей.

Открыть документ
Manual #471 11 min

Децентрализованные 4090 vs AWS H100: калькулятор для тонкой настройки Llama 3 70B

Практический гайд по выбору железа для тонкой настройки Llama 3 70B: децентрализованные 4090 vs AWS H100 с калькулятором затрат и производительности.

Открыть документ