Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #4040 7 min

Qwen3.5 в production: личный опыт использования для разработки на JavaScript, Go и Rust

Личный опыт развертывания Qwen3.5 для генерации кода в продакшене. Метрики, квантование, интеграция с JavaScript, Go и Rust проектами. Сравнение с Claude.

Открыть документ
Manual #4039 7 min

Qwen3.5 35B на видеокарте 16 ГБ: настройка для 45 токенов/с и контекста 128K

Детальное руководство по запуску Qwen3.5 35B на видеокарте с 16 ГБ VRAM. Настройка LM Studio и llama.cpp для скорости 45 токенов/с и контекста 128K. Актуально н

Открыть документ
Manual #4036 6 min

Провал квантования: почему GGUF-версии Minimax M2.5 работают плохо и как этого избежать

Почему квантованные Minimax M2.5 модели выдают бессмыслицу. Сравнение уровней квантования Q1-Q4 на H200. Пошаговое руководство по правильному квантованию для ст

Открыть документ
Manual #4028 5 min

Уязвимость LLM к невидимым Unicode-символам: тестирование обратной CAPTCHA и методы защиты

Как невидимые Unicode-символы взламывают LLM-агентов. Практическое руководство по тестированию обратной CAPTCHA и методам защиты на 2026 год.

Открыть документ
Manual #4024 9 min

GRPO с нуля: полное руководство по реализации, ablation studies и оптимизация памяти на RTX 4090

Пошаговое руководство по реализации GRPO с нуля, ablation studies и оптимизации памяти для RTX 4090. Используем Qwen2.5-Math-1.5B и reinforcement learning.

Открыть документ
Manual #4022 10 min

Как настроить Qwen 14B для победы над GPT-4o: дистилляция знаний на примере головоломок NYT Connections

Пошаговый гайд по тонкой настройке Qwen 14B через дистилляцию от Claude 4.5 Sonnet с QLoRA. Как открытая модель побеждает GPT-4o в нишевой задаче.

Открыть документ
Manual #4018 9 min

Как создать сложную LLM-симуляцию с памятью на Python: разбор кейса Noodle Shop с GLM 4.7 и Qwen

Пошаговое руководство по созданию сложной LLM-симуляции с системой памяти. Разбираем кейс ресторана лапши с использованием GLM 4.7 30B и Qwen 2.5 35B.

Открыть документ
Manual #4017 9 min

Mixture of Experts (MoE) в трансформерах: полное руководство по архитектуре и настройке в Hugging Face

Полное руководство по Mixture of Experts (MoE) в трансформерах. Архитектура, принцип работы sparse моделей, настройка в Hugging Face и практические советы на 20

Открыть документ
Manual #4016 8 min

Pi*0.6: Как применить метод Physical Intelligence для постобучения роботов без сложного RL

Гайд по применению метода Physical Intelligence Pi*0.6 для постобучения роботов. Оффлайн-RL, ACT policy, классификация действий. Практический разбор без хайпа.

Открыть документ
Manual #4014 10 min

4 стадии рефакторинга AI-сгенерированного кода: от вайбкодинга до чистой архитектуры

Пошаговый гайд по превращению AI-кода в чистую архитектуру. Разбираем реальный кейс с конвертером JSON Telegram: от вайбкодинга до Dependency Injection.

Открыть документ
Manual #4010 8 min

Как реализовать 'сон' для локальных LLM: методика MEMIT для постоянной памяти без RAG

Пошаговый гайд по реализации 'сна' для локальных LLM через MEMIT. Редактирование весов трансформера для постоянной памяти. Работает на MacBook Air.

Открыть документ
Manual #4007 8 min

Лоботомические слои в Llama 3.1 и Qwen 2.5: как избежать 'зоны убийства' здравого смысла при fine-tuning

Практическое руководство по обнаружению и обходу лоботомических слоев в моделях Llama 3.1 и Qwen 2.5 при тонкой настройке. Сохраните фактические знания модели.

Открыть документ