Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2068 9 min

LLM на старом ноутбуке: заставляем модель работать там, где она не должна

Подробный гайд по запуску TinyLlama и других моделей на слабом железе. Контекстное прунирование, мониторинг энтропии Шеннона, Python скрипты.

Открыть документ
Manual #2067 8 min

120V - не приговор: как собрать ферму для локальных LLM в США без переделки проводки

Практические решения для питания фермы под локальные LLM на американской электросети 120V. Расчеты, схемы подключения, выбор PSU и распределение нагрузки.

Открыть документ
Manual #2066 9 min

HashHop: $500M за реверс-инжиниринг памяти LLM. Как это работает на самом деле

Полный разбор HashHop - технологии за $500M. Как работает реверс-инжиниринг Memory-Augmented Language Models и почему это стоит таких денег. Архитектура, связь

Открыть документ
Manual #2065 7 min

8 миллиардов параметров для C++: какие opensource модели реально генерируют код, а не галлюцинируют в 2026

Тестируем DeepSeek-Coder-6.7B, Qwen-Coder-7B и CodeLlama-7B на реальных задачах C++. Сравнение скорости, качества и памяти для Windows с GGUF.

Открыть документ
Manual #2063 6 min

M4 Mac Mini или ждать M5? Железный выбор для локальных LLM в 2026 году

Полный разбор железа для локальных LLM в 2026: M4 Mac Mini тесты, прогнозы по M5, сравнение с серверами и ПК. Что купить прямо сейчас?

Открыть документ
Manual #2056 9 min

Маленькие LLM на Raspberry Pi и MacBook Air: как заставить их работать умнее, а не тяжелее

Практическое руководство по работе с маленькими LLM на ограниченном железе. Оптимизация контекста, RAG, выбор моделей и инструментов на 2026 год.

Открыть документ
Manual #2055 7 min

Почему бесконечный контекст (1M токенов) не решает проблему памяти AI-агентов: разбираем концепцию Memory OS

Глубокий разбор проблемы памяти AI-агентов. Почему бесконечный контекст не работает, как устроен Memory OS и что такое жизненный цикл памяти. Практические решен

Открыть документ
Manual #2054 8 min

Gemini Nano в Chrome: кейс внедрения, 41% coverage, экономия $0 и сравнение производительности

Практический опыт внедрения Gemini Nano в Chrome: 41% coverage, производительность 6x медленнее облака, экономия $0 и fallback-стратегия.

Открыть документ
Manual #2050 8 min

Реальные кейсы использования локальных LLM: как заменить платные подписки и автоматизировать работу

Практическое руководство по замене платных подпискок на локальные LLM. Реальные кейсы автоматизации, RAG пайплайны, агентное программирование на 2026 год.

Открыть документ
Manual #2047 10 min

OpenAI Responses API в llama.cpp: полный гайд по замене GPT-4 на GLM-4.7-Flash

Пошаговое руководство по запуску локального OpenAI-совместимого API с GLM-4.7-Flash через llama.cpp, интеграция с Codex CLI и экономия на облачных сервисах

Открыть документ
Manual #2044 8 min

Катастрофическое забывание в LLM: почему ваша модель глупеет после дообучения и как это остановить

Полное руководство по катастрофическому забыванию в языковых моделях. Математика явления, практические методы борьбы при дообучении LLM в 2026 году.

Открыть документ
Manual #2043 9 min

Парадокс Weight Decay: как L2-регуляризация на fine-tuning не стирает, а защищает старые знания модели

Эксперимент показывает: L2-регуляризация при дообучении моделей не разрушает старые знания, а защищает их от катастрофического забывания. Разница в accuracy до

Открыть документ