Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #5265 7 min

Как настроить ИИ-парсер для чтения старых ГОСТов: полный кейс с PDF, промптами и экономией 95% времени

Пошаговый гайд по настройке ИИ-парсера для чтения старых ГОСТов из PDF. Работа с сканами, промпты, извлечение таблиц. Экономия с 2 часов до 5 минут.

Открыть документ
Manual #5264 9 min

Реализация памяти для LLM-чата на Python: от простого history до ограничения контекста

Пошаговый гайд по реализации памяти для диалога с LLM на Python. Код для истории сообщений, подсчета токенов и ограничения длины контекста.

Открыть документ
Manual #5263 7 min

Партизанский MLOps: как запустить Gemma 4 31B на бесплатном Kaggle с лимитом диска

Пошаговый гайд с хаками: как запустить 31B модель Gemma 4 на бесплатном Kaggle GPU с лимитом диска. Квантование на лету, bitsandbytes NF4, удаление кэша.

Открыть документ
Manual #5262 8 min

Как построить антиспам-бота для Telegram на Gemini Flash: экономия в 1000 раз против GigaChat

Пошаговый гайд по созданию антиспам-бота для Telegram на Gemini Flash. Сравнение стоимости с GigaChat: экономия в 1000 раз. Расчеты токенов, промпты, код и разв

Открыть документ
Manual #5257 7 min

Эксплуатация уязвимости в MCP-инструментах AI: полный разбор HackTheBox Kobold

Глубокий технический гайд по эксплуатации уязвимости в MCP-инструментах AI на примере HackTheBox машины Kobold. Шаги от разведки до RCE.

Открыть документ
Manual #5255 8 min

Bankai: как заставить 1-битные LLM работать без потерь (и почему это меняет все)

Первый метод Bankai для адаптации true 1-битных LLM после квантования. Как работает, пошаговое применение, нюансы и сравнение с аналогами. Актуально на апрель 2

Открыть документ
Manual #5247 8 min

Метапромптинг и анализ ЦА: как за 2 часа получить глубокие инсайты с помощью нейросетей

Пошаговый гайд по метапромптингу: собираем данные из Telegram, прогоняем через 3 нейросети, синтезируем инсайты в NotebookLM за 2 часа. Кейс и промпты.

Открыть документ
Manual #5245 9 min

PageIndex: тестируем альтернативу векторному поиску в RAG-системах

Как запустить PageIndex локально, сравнение с векторным поиском, пошаговая настройка и тестирование для RAG-систем. Актуально на 2026 год.

Открыть документ
Manual #5244 9 min

Увеличение контекста ruGPT3XL до 8k: методика, PPL и Sparse Attention

Подробный гайд по увеличению контекста русскоязычной LLM ruGPT3XL до 8000 токенов. Sparse Attention, оценка перплексии, код на Triton и оптимизация для Hugging

Открыть документ
Manual #5243 7 min

Как настроить синтезатор речи на Repka Pi 4: Piper TTS и FastAPI сервер

Подробное руководство по настройке нейросетевого синтеза речи Piper на Repka Pi 4 с созданием своего FastAPI сервера и автозагрузкой через systemd.

Открыть документ
Manual #5242 8 min

Подключаем eGPU NVIDIA к Mac: обманываем Apple Silicon и запускаем Llama 3.2 на 24 ГБ VRAM

Пошаговый гайд: как заставить внешнюю видеокарту NVIDIA работать с Mac на Apple Silicon для ускорения локальных LLM (Llama, Nemotron) через TinyGPU. Аппаратная

Открыть документ
Manual #5234 8 min

Ловушка 64 ГБ ОЗУ на Mac: почему модели 35B-70B — мёртвая зона для локальных LLM и как из неё выйти

Почему модели 35B-70B тормозят на Mac с 64 ГБ ОЗУ. Анализ памяти, квантования, выбор между MLX и llama.cpp. Практический гайд по выходу из ловушки.

Открыть документ