Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2835 6 min

Longcat-Flash-Lite (n-gram) на Mac: когда простая статистика бьет нейросети

Полный гайд по запуску Longcat-Flash-Lite n-gram модели на Apple Silicon. Сравнение MLX, llama.cpp и vLLM, тесты скорости, настройка окружения.

Открыть документ
Manual #2833 10 min

RAG-системы врут? Проверяем источники знаний: графы против векторов

Практическое сравнение методов проверки достоверности источников в RAG-системах: LLM валидация, NER, проверка временных меток и графовые алгоритмы.

Открыть документ
Manual #2832 9 min

Когда ChatGPT не влезает: обучаем испанскую LLM на GTX 1060 и старом Xeon

Пошаговый гайд по обучению маленькой LLM на слабом железе (GTX 1060, Xeon). Испанская литература, SentencePiece, PyTorch, локальное обучение без квантования.

Открыть документ
Manual #2828 7 min

Kimi 2.5 против Qwen3-Coder-Next: сколько стоит ваша приватность в 2026 году

Анализ стоимости токенов Kimi 2.5 и локального развертывания Qwen3-Coder-Next для бизнес-проектов с миллиардами токенов. Безопасность данных и экономика.

Открыть документ
Manual #2827 7 min

Спасаем Qwen3-Coder-Next от 'Unknown StringValue filter: safe' в LM Studio: полный гайд по исправлению

Пошаговое решение ошибки Jinja template при запуске Qwen3-Coder-Next в LM Studio. Исправляем конфигурацию модели и настраиваем шаблоны.

Открыть документ
Manual #2823 7 min

OpenClaw vs MemU: токены, которые едят деньги, и как от них избавиться

Сколько на самом деле стоят AI-агенты? Анализ скрытых расходов OpenClaw и MemU. Гайд по запуску локальной альтернативы на Ollama с экономией 70% на 05.02.2026.

Открыть документ
Manual #2820 10 min

Notebook в официальном WebUI llama.cpp: почему text-generation-webui больше не нужен

Как использовать Notebook режим в официальном WebUI llama.cpp. Преимущества перед text-generation-webui, настройка, Python-интеграция и практические примеры для

Открыть документ
Manual #2815 8 min

Российские AI-платформы для аналитиков: полный гайд по выбору (on-premise, облако РФ, open source)

Полный гайд по выбору российских AI-платформ для аналитиков в условиях 152-ФЗ и КИИ. GigaChat on-premise, Qwen, Roo Code, локальное развертывание, облачные реше

Открыть документ
Manual #2811 10 min

llama.cpp Responses/Messages API: как заменить OpenAI и не сойти с ума

Полное сравнение новых API llama.cpp с OpenAI, настройка агентов на Pydantic и Smolagents, работа с моделями 120B. Актуально на 04.02.2026.

Открыть документ
Manual #2810 8 min

Llama.cpp без обёрток: как встроить движок LLM прямо в свой проект

Полный гайд по интеграции llama.cpp в сторонние проекты. Сравнение подходов: прямое использование C++ API, HTTP-сервер, Python-биндинги, обёртки. Примеры кода и

Открыть документ
Manual #2809 11 min

FS-Researcher: практический гайд по созданию ИИ-исследователя с файловой системой вместо контекстного окна

Пошаговое руководство по созданию автономного ИИ-исследователя с файловой системой вместо ограниченного контекстного окна. Архитектура, код, настройка агентов.

Открыть документ
Manual #2808 7 min

Cursor — это дорого. Вот что работает вместо него с локальными LLM в 2026 году

Сравнительный обзор IDE и редакторов для локальных LLM разработки без облачных затрат. Замена Cursor с оффлайн-моделями.

Открыть документ