Учебные материалы
Как настроить ИИ-парсер для чтения старых ГОСТов: полный кейс с PDF, промптами и экономией 95% времени
Пошаговый гайд по настройке ИИ-парсера для чтения старых ГОСТов из PDF. Работа с сканами, промпты, извлечение таблиц. Экономия с 2 часов до 5 минут.
Реализация памяти для LLM-чата на Python: от простого history до ограничения контекста
Пошаговый гайд по реализации памяти для диалога с LLM на Python. Код для истории сообщений, подсчета токенов и ограничения длины контекста.
Партизанский MLOps: как запустить Gemma 4 31B на бесплатном Kaggle с лимитом диска
Пошаговый гайд с хаками: как запустить 31B модель Gemma 4 на бесплатном Kaggle GPU с лимитом диска. Квантование на лету, bitsandbytes NF4, удаление кэша.
Как построить антиспам-бота для Telegram на Gemini Flash: экономия в 1000 раз против GigaChat
Пошаговый гайд по созданию антиспам-бота для Telegram на Gemini Flash. Сравнение стоимости с GigaChat: экономия в 1000 раз. Расчеты токенов, промпты, код и разв
Эксплуатация уязвимости в MCP-инструментах AI: полный разбор HackTheBox Kobold
Глубокий технический гайд по эксплуатации уязвимости в MCP-инструментах AI на примере HackTheBox машины Kobold. Шаги от разведки до RCE.
Bankai: как заставить 1-битные LLM работать без потерь (и почему это меняет все)
Первый метод Bankai для адаптации true 1-битных LLM после квантования. Как работает, пошаговое применение, нюансы и сравнение с аналогами. Актуально на апрель 2
Метапромптинг и анализ ЦА: как за 2 часа получить глубокие инсайты с помощью нейросетей
Пошаговый гайд по метапромптингу: собираем данные из Telegram, прогоняем через 3 нейросети, синтезируем инсайты в NotebookLM за 2 часа. Кейс и промпты.
PageIndex: тестируем альтернативу векторному поиску в RAG-системах
Как запустить PageIndex локально, сравнение с векторным поиском, пошаговая настройка и тестирование для RAG-систем. Актуально на 2026 год.
Увеличение контекста ruGPT3XL до 8k: методика, PPL и Sparse Attention
Подробный гайд по увеличению контекста русскоязычной LLM ruGPT3XL до 8000 токенов. Sparse Attention, оценка перплексии, код на Triton и оптимизация для Hugging
Как настроить синтезатор речи на Repka Pi 4: Piper TTS и FastAPI сервер
Подробное руководство по настройке нейросетевого синтеза речи Piper на Repka Pi 4 с созданием своего FastAPI сервера и автозагрузкой через systemd.
Подключаем eGPU NVIDIA к Mac: обманываем Apple Silicon и запускаем Llama 3.2 на 24 ГБ VRAM
Пошаговый гайд: как заставить внешнюю видеокарту NVIDIA работать с Mac на Apple Silicon для ускорения локальных LLM (Llama, Nemotron) через TinyGPU. Аппаратная
Ловушка 64 ГБ ОЗУ на Mac: почему модели 35B-70B — мёртвая зона для локальных LLM и как из неё выйти
Почему модели 35B-70B тормозят на Mac с 64 ГБ ОЗУ. Анализ памяти, квантования, выбор между MLX и llama.cpp. Практический гайд по выходу из ловушки.