Учебные материалы
AMD 7900 XTX + ROCm: полный бенчмарк llama.cpp vs vLLM на eGPU через Thunderbolt 3
Эксклюзивный тест производительности 8 LLM на AMD 7900 XTX через Thunderbolt 3. Сравнение llama.cpp и vLLM, реальная скорость токенов, ограничения eGPU и настро
Сборка llama.cpp не для всех: как заставить его летать на твоём железе
Полный гайд по сборке llama.cpp с MKL, CUDA архитектурой, AVX2 и Vulkan. Флаги CMake для i7, RTX, AMD. Ускорение инференса в 3-5 раз.
Как создать AI-радиостанцию на базе Qwen 1.5B и Piper TTS: туториал по VibeCast
Пошаговый гайд по созданию локальной AI-радиостанции с генерацией скриптов, синтезом речи и веб-интерфейсом. Работает полностью офлайн.
Как создать Text-to-SQL агента для бизнеса: архитектура, guardrails и достижение 96% точности с Llama 3
Практическое руководство по созданию production-ready Text-to-SQL агента с архитектурой на LangChain, strict schema binding, guardrails и 96% точностью на Llama
Техническое расследование: как обнаружить производные модели через анализ весов и кода
Полное руководство по техническому расследованию производных моделей. Анализ косинусной схожести весов, исследование кода моделирования и поиск следов копирован
Паразитные паттерны в LLM: как распознать ИИ-психозы, теории всего и остановить заражение диалога
Полное руководство по диагностике и устранению паразитных паттернов в LLM: самоподдерживающиеся структуры, ИИ-психозы, промпт "Продолжай" и методы стабилизации
Разгон 6700XT под ROCm: полный гайд по сборке стека для локальных LLM
Подробное руководство по разгону AMD Radeon 6700XT и сборке полного стека ПО для локальных языковых моделей (LLM) под ROCm с OpenWeb UI и мультимодальностью.
Локальная замена TalkTasic: какие OSS-модели умеют видеть экран и диктовать код?
Полный гайд по сборке локального аналога TalkTasic на открытых мультимодальных моделях. Обзор моделей с поддержкой зрения и слуха, пошаговая интеграция и решени
Как запустить локальную LLM-инфраструктуру на домашнем железе (192GB RAM + GPU)
Пошаговое руководство по развертыванию многопользовательской LLM-инфраструктуры на домашнем сервере с 192GB RAM и GPU. Proxmox, OpenWebUI, GPU passthrough.
AMD vs NVIDIA для локального ИИ в 2025: наконец-то паритет или всё ещё ад?
Полное сравнение AMD и NVIDIA GPU для локального ИИ в 2025. Совместимость с LM Studio, производительность, настройка под Linux и ответ на вопрос: паритет или не
Как собрать домашний ИИ-сервер на Orange Pi: гайд по установке Ollama и запуску 70B моделей
Пошаговый гайд по сборке домашнего ИИ-сервера на Orange Pi с Ascend 310. Установка Ollama, драйверов и запуск больших LLM моделей.
Децентрализованные 4090 vs AWS H100: калькулятор для тонкой настройки Llama 3 70B
Практический гайд по выбору железа для тонкой настройки Llama 3 70B: децентрализованные 4090 vs AWS H100 с калькулятором затрат и производительности.