Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3211 9 min

Как собрать inference-сервер на Threadripper для 24/7 работы с большими моделями: сравнение TRX40 vs TRX50, GPU и бюджета

Практический гайд по сборке сервера для 24/7 инференса больших моделей на Threadripper. Сравнение TRX40 и TRX50, выбор GPU (RTX 6000 Pro, A40, L40S), бюджет от

Открыть документ
Manual #3210 5 min

MiniCPM-o 4.5 теперь говорит: Full Duplex голосовой и видеочат на вашем компьютере

Полная инструкция по установке голосового и видеочата MiniCPM-o 4.5 с Full Duplex на Windows и Linux. One-click installer, Docker, CUDA поддержка.

Открыть документ
Manual #3207 11 min

MOHAWK: как изолировать AI-агентов так, чтобы они не сбежали и не убили вашу инфраструктуру

Глубокий разбор MOHAWK - фреймворка для изоляции AI-агентов. 4 слоя безопасности: WebAssembly, Zero-Trust Manifests, TPM, Circuit Breaker. Практическая реализац

Открыть документ
Manual #3206 9 min

CPU-only инференс LLM: полное руководство по оптимизации скорости и памяти без видеокарты

Полное руководство по запуску локальных LLM на CPU без видеокарты. Оптимизация llama.cpp, настройка RAM, выбор моделей и реальные тесты производительности на 10

Открыть документ
Manual #3203 9 min

Mindstream: как я собрал RSS-ленту, которая читает за меня (и не врет)

Пошаговый гайд по сборке AI-приложения для фильтрации RSS с помощью языковых моделей. Полный код на GitHub, работа с Habr и другими источниками.

Открыть документ
Manual #3201 6 min

Qwen3 Next — MoE-модель нового поколения: требования к железу и перспективы для Mac

Полный разбор Qwen3 Next MoE-модели: требования к памяти на Mac, сравнение с Qwen2.5, оптимизация под Apple Silicon и практические тесты на февраль 2026 года.

Открыть документ
Manual #3199 9 min

Два мозга лучше одного: как собрать AI-ассистента с роутером и мозгом на ограниченных ресурсах

Пошаговое руководство по созданию кастомного AI-ассистента с двумя моделями: роутер для определения интента и мозг для ответов. Экономия GPU, серийная загрузка,

Открыть документ
Manual #3196 8 min

Гроккинг при тонкой настройке LLM: миф или реальность? Практические наблюдения

Разбираем феномен гроккинга при тонкой настройке языковых моделей. Актуальные исследования, практические наблюдения и методы управления обучением на 2026 год.

Открыть документ
Manual #3192 9 min

Запуск 70B+ моделей на домашнем ПК: слоевый стриминг против ограничений VRAM

Полное руководство по запуску 70B+ моделей на домашнем ПК. Слоевый стриминг, CPU offloading, оптимизация VRAM и практические примеры для RTX 5060 Ti, NVIDIA Tho

Открыть документ
Manual #3191 5 min

Бенчмарк 40 AI-моделей (Февраль 2026): Liquid LFM 2.5 (359 TPS) против Ministral 3B — тактика выбора

Сравнение 40 AI-моделей по TPS и стоимости. Liquid LFM 2.5 (359 токенов/сек) против Ministral 3B. Тактика выбора модели под задачу в 2026 году.

Открыть документ
Manual #3188 7 min

Средние LLM 20-80B: как выбрать модель, которая не сломает вашу видеокарту

Полный гайд по выбору и запуску средних LLM моделей 20-80B параметров. Сравнение квантований Q4/Q5/MXFP4, тесты производительности и практические рекомендации д

Открыть документ
Manual #3187 7 min

Защита базы данных от AI: как regex lock предотвращает DROP TABLE в Text-to-SQL агенте

Практическое руководство по защите баз данных от опасных SQL-запросов AI-агентов. Реализация regex lock и SqlJudge на Python. Актуально на 2026 год.

Открыть документ