Учебные материалы
От FM-эфира до текста: как заставить GNU Radio понимать речь через Whisper.cpp
Пошаговое руководство по созданию пользовательского блока GNU Radio для распознавания речи с Whisper.cpp. От компиляции до реального FM-приёмника.
Society of Thought: как работает внутренний "совет экспертов" в reasoning-моделях
Объяснение Society of Thought — архитектуры reasoning-моделей с внутренним диалогом экспертов. Как работает DeepSeek-R1 и аналоги на начало 2026.
Собери мобильного робота-манипулятора за 20 000 рублей: ROS2, нейросети и китайские моторы
Пошаговый гайд: как собрать мобильного робота с ROS2, компьютерным зрением и нейросетями за 20 000 рублей. Конкретная смета, код и ошибки, которых нужно избегат
DGX Spark, GMKtec Strix Halo и Mac Studio M3 Ultra: три пути к локальному AI-серверу
Практическое сравнение трех решений для локального запуска LLM: производительность GLM 4.7 Flash, цена, энергопотребление. Как выбрать железо под 20+ ток/с.
Год с ИИ в разработке: практический гайд по выбору моделей для программирования — закрытые vs. открытые
Практический гайд по выбору ИИ для программирования. Сравниваем закрытые и открытые модели, анализируем стоимость, качество кода и безопасность на реальном опыт
Как запустить полностью офлайн RAG-пайплайн на Android: Gemma 3, кастомная модель поиска SEE и оптимизация батареи
Полный гайд по запуску офлайн RAG-пайплайна на Android с Gemma 3 270M, кастомной моделью поиска SEE и оптимизацией энергопотребления. Практические метрики и реш
Таксономия методов тонкой настройки LLM: полный гид для начинающих
Подробное сравнение методов fine-tuning LLM в 2026 году. LoRA vs QLoRA, инструктивное обучение, DPO, полная настройка. Как выбрать метод для вашей задачи.
Корпоративный ИИ-агент: как Яндекс построил DeepResearch и почему ваш RAG уже устарел
Практический разбор корпоративного ИИ-агента Яндекса: эволюция архитектуры, ключевые ошибки и готовые решения для работы с внутренними данными.
RTX 6000 Blackwell не POSTится: спасение системы за $15,000 через сброс CMOS и IPMI
Детальный гайд по решению проблем с загрузкой ОС на RTX 6000 Blackwell с Epyc Genoa. Сброс CMOS, настройка IPMI, стабилизация Ubuntu для локальных LLM.
Claude Code течет как решето: что на самом деле уходит в облако при 'локальном' запуске
Проверка сетевого трафика Claude Code. Какие данные отправляются в Anthropic при локальном использовании и как полностью отключить облачные соединения.
Запускаем Claude Code локально с GLM-4.7 Flash: полный гайд с Docker и автовыгрузкой VRAM
Пошаговый гайд по запуску GLM-4.7 Flash локально через llama.cpp server с Docker, автовыгрузкой VRAM и полной заменой Claude Code API. Конфигурация, параметры,
Как настроить observability для LLM-агентов: трассировка, мониторинг затрат и анализ производительности с Langfuse
Полное руководство по настройке observability для LLM-агентов в 2026 году. Трассировка, мониторинг токенов, анализ стоимости и производительности с Langfuse.