Учебные материалы
Создание голосовых NPC с памятью в Unity: полный стек (Ollama, Whisper, edge-tts, Generative Agents)
Пошаговое руководство по созданию NPC с голосом и памятью в Unity с использованием Ollama, Whisper и edge-tts. Локальный ИИ для игр.
Мультимодальный RAG с Gemini Embedding 2: туториал по работе с видео и изображениями
Пошаговый гайд по созданию мультимодального RAG с Gemini Embedding 2. Ищем по видео и картинкам в едином векторном пространстве. Код на Python и Supabase.
Победа в хакатоне PyTorch: как оптимизировать GPU kernel для инференса LLM — разбор техник из первых рук
Полный разбор оптимизаций GPU kernel для ускорения инференса LLM: KV caching, fusion, Gated DeltaNet. Практические техники из хакатона PyTorch на примере NVIDIA
Практическое руководство: как собрать локальный AI-агент для iPhone с llama.cpp и Metal
Пошаговое руководство по созданию локального AI-агента для iPhone с использованием llama.cpp и Metal. Выбор модели, квантование, tool calling и оптимизация под
AI-агент для Godot 4: Как заставить нейросеть видеть, что она накодила
Пошаговое руководство по созданию AI-агента, который не только пишет код для Godot 4, но и анализирует скриншоты игры, чтобы самостоятельно вносить правки. MCP-
Бенчмарк Lost-in-the-Middle: как тестировать LLM на потерю знаний в длинных документах
Практический гайд по использованию бенчмарка Lost-in-the-Middle для оценки потери знаний LLM в длинных документах. Анализ ошибок, пошаговая инструкция, актуальн
Как избежать катастрофы с ИИ-агентом: уроки из случая удаления продакшена Claude Code
Полное руководство по безопасности ИИ-агентов: принцип наименьших прав, резервные копии AWS, изоляция сред и мониторинг на основе реального инцидента с Claude C
State Flow Machine: как замена трансформеров добивается 79% удержания длины контекста
Глубокий разбор архитектуры State Flow Machine. Как FlashLM и SlotMemoryAttention решают проблему квадратичной сложности трансформеров и дают 79% retention на д
Круши цензуру: как собрать свою uncensored LLM из Qwen и знаний Claude Opus за один вечер
Пошаговый гайд по созданию uncensored LLM. Слияние тензоров Qwen3.5 9B, дистилляция знаний Claude Opus, готовый код на Google Colab для моделей без цензуры.
Разоблачение TB2: как задача db-wal-recovery ломает бенчмарки и как её правильно решить
Глубокий разбор задачи db-wal-recovery из Terminal Bench 2.0. Почему стандартные бенчмарки пасуют перед SQLite WAL и XOR шифрованием. Пошаговое решение.
Homelab для LLM: как окупить сервер на H100 за счёт экспериментов с большими моделями
Реальный кейс: как собрать домашний сервер на H100 для экспериментов с LLM и окупить его, сэкономив на облачных вычислениях. Расчёты, настройка Grafana, выбор ж
Тест производительности: ik_llama.cpp против llama.cpp на Qwen3/3.5 MoE - 40% прирост или оптимизация под копирку?
Полный бенчмарк ik_llama.cpp и llama.cpp на Qwen3/3.5 MoE. Команды, настройки, реальный прирост скорости до 40%. Аппаратная конфигурация, квантование Q4_K_M, ан