Учебные материалы
Qwen3.5 в production: личный опыт использования для разработки на JavaScript, Go и Rust
Личный опыт развертывания Qwen3.5 для генерации кода в продакшене. Метрики, квантование, интеграция с JavaScript, Go и Rust проектами. Сравнение с Claude.
Qwen3.5 35B на видеокарте 16 ГБ: настройка для 45 токенов/с и контекста 128K
Детальное руководство по запуску Qwen3.5 35B на видеокарте с 16 ГБ VRAM. Настройка LM Studio и llama.cpp для скорости 45 токенов/с и контекста 128K. Актуально н
Провал квантования: почему GGUF-версии Minimax M2.5 работают плохо и как этого избежать
Почему квантованные Minimax M2.5 модели выдают бессмыслицу. Сравнение уровней квантования Q1-Q4 на H200. Пошаговое руководство по правильному квантованию для ст
Уязвимость LLM к невидимым Unicode-символам: тестирование обратной CAPTCHA и методы защиты
Как невидимые Unicode-символы взламывают LLM-агентов. Практическое руководство по тестированию обратной CAPTCHA и методам защиты на 2026 год.
GRPO с нуля: полное руководство по реализации, ablation studies и оптимизация памяти на RTX 4090
Пошаговое руководство по реализации GRPO с нуля, ablation studies и оптимизации памяти для RTX 4090. Используем Qwen2.5-Math-1.5B и reinforcement learning.
Как настроить Qwen 14B для победы над GPT-4o: дистилляция знаний на примере головоломок NYT Connections
Пошаговый гайд по тонкой настройке Qwen 14B через дистилляцию от Claude 4.5 Sonnet с QLoRA. Как открытая модель побеждает GPT-4o в нишевой задаче.
Как создать сложную LLM-симуляцию с памятью на Python: разбор кейса Noodle Shop с GLM 4.7 и Qwen
Пошаговое руководство по созданию сложной LLM-симуляции с системой памяти. Разбираем кейс ресторана лапши с использованием GLM 4.7 30B и Qwen 2.5 35B.
Mixture of Experts (MoE) в трансформерах: полное руководство по архитектуре и настройке в Hugging Face
Полное руководство по Mixture of Experts (MoE) в трансформерах. Архитектура, принцип работы sparse моделей, настройка в Hugging Face и практические советы на 20
Pi*0.6: Как применить метод Physical Intelligence для постобучения роботов без сложного RL
Гайд по применению метода Physical Intelligence Pi*0.6 для постобучения роботов. Оффлайн-RL, ACT policy, классификация действий. Практический разбор без хайпа.
4 стадии рефакторинга AI-сгенерированного кода: от вайбкодинга до чистой архитектуры
Пошаговый гайд по превращению AI-кода в чистую архитектуру. Разбираем реальный кейс с конвертером JSON Telegram: от вайбкодинга до Dependency Injection.
Как реализовать 'сон' для локальных LLM: методика MEMIT для постоянной памяти без RAG
Пошаговый гайд по реализации 'сна' для локальных LLM через MEMIT. Редактирование весов трансформера для постоянной памяти. Работает на MacBook Air.
Лоботомические слои в Llama 3.1 и Qwen 2.5: как избежать 'зоны убийства' здравого смысла при fine-tuning
Практическое руководство по обнаружению и обходу лоботомических слоев в моделях Llama 3.1 и Qwen 2.5 при тонкой настройке. Сохраните фактические знания модели.