Учебные материалы
Epyc 9175F для CPU-инференса: реальные тесты против теории и M3 Max
Практический тест Epyc 9175F для CPU-инференса Llama 3.1 70B. Сравнение с Apple M3 Max, анализ 600 Gbs памяти и оффлоадинга слоев. Реальные цифры против маркети
Как выбрать LLM под 128 ГБ VRAM: сравнение моделей для обработки длинных техдокументов
Сравнение Qwen3-32B, GPT-OSS:120B и других моделей для работы с длинным контекстом на 8×RTX 5070 Ti. Практический гайд по выбору LLM для технической документаци
Как подключить локальную LLM к Cursor AI через LM Studio и ngrok: решение ошибок CORS и конфигурации
Пошаговый гайд по интеграции локальных LLM в Cursor AI через LM Studio и ngrok. Решение ошибок CORS и конфигурации для работы с IDE.
ИИ против рутины: автоматизируем Power BI от DAX до схемы данных
Практическое руководство по использованию ИИ для автоматизации DAX, создания SQL-запросов и экспорта схем Power BI. Примеры кода на Python и .NET.
Tesla P40 для MoE-оффлоудинга: как заставить 8-летнюю карту работать лучше современных
Практический гайд по использованию дешёвых Tesla P40 для оффлоудинга экспертов в MoE-моделях. Оптимизация стоимости, настройка, сравнение с RTX 4090 и GTX 1070.
Когда твой AI-агент тупит и молчит: полный гайд по observability для Cursor и Claude Code
Пошаговое руководство по настройке хуков и трассировки AI-агентов в Cursor и Claude Code. Hooks.json, жизненный цикл агента, отладка промптов.
Построение AI-монстра: локальный ассистент со всем функционалом в одной коробке
Подробный разбор архитектуры полностью локального AI-ассистента со всеми функциями. STT, TTS, RAG, управление умным домом, генерация изображений и мониторинг си
Общий сервер ComfyUI для команды: от ThreadRipper до PSU 2500W
Полный гайд по сборке и настройке общего сервера ComfyUI для команды. ThreadRipper PRO, RTX Pro 6000, управление портами, PSU 2500W и безопасность.
Anthropic Cowork: как заставить Claude работать с вашими файлами на Mac без единого скрипта
Полный гайд по настройке Anthropic Cowork для автоматической обработки документов, организации файлов и создания отчётов на Mac без программирования.
Расчёт стоимости self-hosted Gemma 3 4B для 300 пользователей: от железа до счёта
Подробный гайд по оценке стоимости и инфраструктуры для self-hosted развёртывания Gemma 3 4B на 300 конкурентных пользователей. TGI, квантование, выбор железа.
Оптимизация оперативной памяти для локальных LLM: скорость против объема на примере Qwen2.5-32B и DeepSeek
Практическое руководство по выбору конфигурации оперативной памяти для запуска локальных LLM 32B параметров. Сравнение скорости и объема на примере Qwen2.5-32B
Выбор локальной LLM как код-тьютора: модели, требования к RAM/VRAM и борьба с галлюцинациями
Сравниваем DeepSeek-Coder, Codestral и Llama Code как локальных код-тьюторов. Подбираем модель под 24 GB RAM и 16 GB VRAM, разбираемся с контекстом 20k и миними