Учебные материалы
BPE сломался? Морфемная токенизация ускоряет обучение LLM в 2 раза и режет loss
Глубокий разбор: как морфемная токенизация снижает loss на 2.6-5.7% и ускоряет обучение LLM в 2 раза. Пошаговый гайд для русского языка.
Обзор терминальных инструментов для локальных LLM: сравнение aider, TUI Chat, cli-ai и настройка под Linux
Полный гайд по терминальным инструментам для локальных LLM. Сравнение aider, TUI Chat, cli-ai, настройка под Linux, интеграция с Ollama и RTX 4090. Актуально на
Pydantic v2: 4 приёма для валидации больших данных с максимальной скоростью на Rust
Практический гайд по валидации больших данных в Pydantic v2 с использованием Rust-ядра. Annotated, field_validator, производительность, сравнение подходов.
Детерминированная рациональная арифметика: как ускорить ИИ-вычисления в 2-4 раза и убрать ошибки
Практическое руководство по внедрению детерминированной рациональной арифметики и отложенного деления для ускорения Transformer-моделей и устранения накопления
Запуск Qwen3-Coder-Next 80B в BF16 на CPU: практическое руководство для фонового код-ассистента
Пошаговое руководство по запуску Qwen3-Coder-Next 80B в BF16 на CPU для фонового код-ассистента. Конфигурация EPYC Zen 5, llama.cpp, оптимизация памяти.
OpenAI Assistants против кастомной платформы: кейс построения сложных AI-агентов для EdTech
Почему OpenAI Assistants не подошли для сложных AI-агентов в EdTech. Разбор архитектуры, управления памятью, логики и логирования на примере Soft Skills Lab.
Pixel 8 Pro против стабильности: какие LLM-модели не галлюцинируют на мобильных?
Практическое сравнение LLM-моделей 7B-8B на Tensor G3. Какие модели стабильнее работают на мобильных без галлюцинаций и сбоев.
Тонкая настройка SLM на частных документах: практический гайд без галлюцинаций
Пошаговое руководство по тонкой настройке SLM на частных документах: подготовка данных, выбор методов адаптации, оценка качества и борьба с конфликтом знаний.
Запуск LLM на процессоре: полное руководство по настройке KoboldCPP и выбору моделей для старых ПК
Подробное руководство по запуску LLM на процессоре через KoboldCPP. Выбор GGUF моделей, настройка под старые ПК, оптимизация скорости. Актуально на 2026 год.
Паранойя в коде: запускаем локальное AI-дополнение без Ollama и слежки
Пошаговый гайд: настраиваем автономное AI-дополнение кода через llama.cpp и Qwen3-Coder в PyCharm/VS Code. Без облаков, без Ollama, без утечек.
Классический IDP vs VLM: практическое сравнение на реальных документах с кодом и метриками
Практическое сравнение классического IDP и Vision Language Models на реальных документах. Код, метрики, гибридные системы, квантование q4/q8.
Шшшшш! Как заставить NVIDIA Blackwell молчать: полный контроль над вентиляторами в headless Linux
Пошаговое руководство по контролю шума NVIDIA Blackwell в headless Linux. Настройка nvidia-smi, скрипты, автоматизация охлаждения для RTX PRO 6000.