Учебные материалы
Нули Римана как статистический отпечаток пальца: может ли ML решить 150-летнюю задачу?
Анализируем, может ли машинное обучение обнаружить паттерны в нулях дзета-функции Римана и помочь доказать одну из величайших математических гипотез.
Как использовать NPU в AI MAX 395 для локальных LLM на Linux: Полное руководство 2025
Пошаговое руководство по использованию NPU в мини-ПК AI MAX 395 для локальных LLM на Linux. Установка ROCm, настройка аппаратного ускорения, оптимизация произво
Неазиатские open-source модели для агентов: обзор и рекомендации на конец 2025
Полный обзор неазиатских open-source моделей для агентных систем на конец 2025. GPT-OSS, Llama 3.1, рекомендации по выбору и внедрению с учетом геополитических
Оптимизация llama.cpp под AMD видеокарты: Vulkan vs ROCm — полный гайд 2025
Полное руководство по настройке llama.cpp для AMD видеокарт. Сравнение Vulkan и ROCm бэкендов, установка драйверов, оптимизация производительности и решение про
Как запустить Llama.cpp в LXC-контейнере Proxmox: гайд для энтузиастов
Полное руководство по запуску Llama.cpp в LXC-контейнере Proxmox с поддержкой GPU. Настройка, оптимизация и решение проблем для локальных LLM.
Почему SOTA-модели (GLM 4.7, Kimi K2) прерываются в Claude Code? Подробное решение
Исчерпывающее руководство по настройке SOTA-моделей в Claude Code: устранение обрывов, таймаутов и оптимизация мультистепового выполнения.
Обзор лучших LLM с поддержкой Tool Calling для локального запуска в 2025
Полный обзор LLM с вызовом инструментов для локального запуска. Сравнение моделей, требования к железу, пошаговая настройка и практические примеры.
Как собрать голосового ассистента на одной видеокарте: STT, LLM и TTS на RTX 3090
Пошаговое руководство по сборке локального голосового ассистента на одной видеокарте RTX 3090. Распознавание речи (STT), языковая модель (LLM) и синтез речи (TT
Мультимодальный RAG в 2025: новые подходы для работы с текстом, изображениями, аудио и видео
Глубокий разбор мультимодального RAG в 2025: архитектуры, инструменты, векторные базы данных и практическая реализация для работы с разными типами данных.
NPU против GPU: что лучше для локального запуска нейросетей в 2024
Полное сравнение NPU и GPU для локального запуска нейросетей в 2024. Разбираем производительность, стоимость, энергоэффективность и даем рекомендации по выбору
Запуск современных LLM на старом железе: подробный гайд на примере Dell T7910
Пошаговое руководство по запуску современных языковых моделей на старом сервере Dell T7910. Квантизация, оптимизация памяти, выбор видеокарты и практические сов
Что такое квантизация GGUF? Разбираем форматы Q3_K_M и Q3_K_XL на примере GLM-4.7
Подробное объяснение квантизации GGUF, сравнение форматов Q3_K_M и Q3_K_XL на примере GLM-4.7. Как сжать модель без потери качества, оптимизировать память и уск