Учебные материалы
Как собрать inference-сервер на Threadripper для 24/7 работы с большими моделями: сравнение TRX40 vs TRX50, GPU и бюджета
Практический гайд по сборке сервера для 24/7 инференса больших моделей на Threadripper. Сравнение TRX40 и TRX50, выбор GPU (RTX 6000 Pro, A40, L40S), бюджет от
MiniCPM-o 4.5 теперь говорит: Full Duplex голосовой и видеочат на вашем компьютере
Полная инструкция по установке голосового и видеочата MiniCPM-o 4.5 с Full Duplex на Windows и Linux. One-click installer, Docker, CUDA поддержка.
MOHAWK: как изолировать AI-агентов так, чтобы они не сбежали и не убили вашу инфраструктуру
Глубокий разбор MOHAWK - фреймворка для изоляции AI-агентов. 4 слоя безопасности: WebAssembly, Zero-Trust Manifests, TPM, Circuit Breaker. Практическая реализац
CPU-only инференс LLM: полное руководство по оптимизации скорости и памяти без видеокарты
Полное руководство по запуску локальных LLM на CPU без видеокарты. Оптимизация llama.cpp, настройка RAM, выбор моделей и реальные тесты производительности на 10
Mindstream: как я собрал RSS-ленту, которая читает за меня (и не врет)
Пошаговый гайд по сборке AI-приложения для фильтрации RSS с помощью языковых моделей. Полный код на GitHub, работа с Habr и другими источниками.
Qwen3 Next — MoE-модель нового поколения: требования к железу и перспективы для Mac
Полный разбор Qwen3 Next MoE-модели: требования к памяти на Mac, сравнение с Qwen2.5, оптимизация под Apple Silicon и практические тесты на февраль 2026 года.
Два мозга лучше одного: как собрать AI-ассистента с роутером и мозгом на ограниченных ресурсах
Пошаговое руководство по созданию кастомного AI-ассистента с двумя моделями: роутер для определения интента и мозг для ответов. Экономия GPU, серийная загрузка,
Гроккинг при тонкой настройке LLM: миф или реальность? Практические наблюдения
Разбираем феномен гроккинга при тонкой настройке языковых моделей. Актуальные исследования, практические наблюдения и методы управления обучением на 2026 год.
Запуск 70B+ моделей на домашнем ПК: слоевый стриминг против ограничений VRAM
Полное руководство по запуску 70B+ моделей на домашнем ПК. Слоевый стриминг, CPU offloading, оптимизация VRAM и практические примеры для RTX 5060 Ti, NVIDIA Tho
Бенчмарк 40 AI-моделей (Февраль 2026): Liquid LFM 2.5 (359 TPS) против Ministral 3B — тактика выбора
Сравнение 40 AI-моделей по TPS и стоимости. Liquid LFM 2.5 (359 токенов/сек) против Ministral 3B. Тактика выбора модели под задачу в 2026 году.
Средние LLM 20-80B: как выбрать модель, которая не сломает вашу видеокарту
Полный гайд по выбору и запуску средних LLM моделей 20-80B параметров. Сравнение квантований Q4/Q5/MXFP4, тесты производительности и практические рекомендации д
Защита базы данных от AI: как regex lock предотвращает DROP TABLE в Text-to-SQL агенте
Практическое руководство по защите баз данных от опасных SQL-запросов AI-агентов. Реализация regex lock и SqlJudge на Python. Актуально на 2026 год.