Учебные материалы
Автоматическая оптимизация промптов для мультимодальных агентов: кейс беспилотного автомобиля
Практическое руководство по автоматической оптимизации промптов для vision-language моделей в системах автономного вождения. Кейсы, ошибки, пошаговый план.
Выбор LLM для Mac Studio M4 Max: практический гайд по инференсу Qwen2.5 для архитектуры как код
Практическое руководство по выбору и запуску Qwen2.5-72B на Mac Studio M4 Max для генерации инфраструктуры. Скорость токенов, настройка MLX, сравнение моделей.
Обход блокировок ChatGPT: автоматическое обновление DNS-правил через GitHub Actions без VPN
Полное руководство по настройке автообновления DNS-правил для доступа к ChatGPT без VPN. NextDNS, Cloudflare, GitHub Actions.
192GB VRAM, Claude Code и vLLM: как запустить локального монстра за $0.03/запрос
Полное руководство по настройке vLLM для локального запуска Claude Code на 192GB VRAM с tensor-parallel-size 2, контекстом 163840 токенов и оптимизациями произв
Куда девается память при инференсе: пейджинг KV cache и магия radix trie в Tailor
Разбираем архитектуру paged KV cache, prefix cache на radix trie и строим мини-инференс-движок с нуля. Практический гайд на примере Tailor.
Слэш-команды в Claude Code и Warp: как автоматизировать 80% рутины разработчика
Пошаговый гайд по созданию слэш-команд в Claude Code и Warp для автоматизации PR, ревью кода, документации и других рутинных задач разработчика.
Метод «Принудительных связей»: как использовать ИИ для креативного мозгового штурма, а не для генерации шаблонов
Пошаговый гайд по методу случайного объекта для ИИ-мозгового штурма. Практические промпты, ошибки и примеры для дизайнеров, маркетологов, разработчиков.
Полное руководство по запуску NSFW-сторителлинга на локальной LLM: от MythoMax до SillyTavern
Пошаговый гайд по запуску интерактивного NSFW-сторителлинга на локальной LLM. Установка MythoMax-l2-13b, SillyTavern, настройка KoboldCCP, оптимизация под AMD R
Как запустить Stable Diffusion и текстовые LLM на ноутбуке с 4 ГБ VRAM: полное руководство
Подробное руководство по запуску Stable Diffusion и текстовых LLM на ноутбуке с 4 ГБ видеопамяти. Оптимизация моделей, сравнение Ollama и LM Studio, работа с кв
Как запустить KimiLinear-48B с MLA KV Cache в llama.cpp: инструкция по сборке и экономия VRAM с 140GB до 15GB
Пошаговая инструкция по сборке llama.cpp с поддержкой MLA KV Cache для запуска KimiLinear-48B на домашнем железе. Экономия видеопамяти в 10 раз.
MiniStral vs Gemma vs Qwen: какая модель до 15B справится с агентами, математикой и Raycast?
Практическое сравнение MiniStral 3 14B, Gemma 3 12B и Qwen3-14B для агентных задач, математики и локального Raycast. Тесты, выбор, подводные камни.
Как создать качественный RAG: уроки из Kaggle-соревнования Data-Feeling-School-RAG-Challenge
Разбор реального Kaggle-соревнования по RAG: детерминированность ответов, косинусное сходство эмбеддингов, оценка качества и подводные камни.