Инструменты
Подборка AI-инструментов. Только то, что работает.
Cordum: как создать систему контроля доступа для AI-агентов с ручным подтверждением действий
Cordum — Go-инструмент для контроля доступа AI-агентов к shell. Ручное подтверждение опасных команд, защита от удаления данных, безопасность локальных coding ag
Podcast Indexer: ваш личный поисковик по подкастам на Java и локальных LLM
Обзор open-source инструмента для индексации, транскрипции и семантического поиска по подкастам с использованием локальных LLM. Java, Whisper, LLaMA.
Контент-завод на n8n и Sora: скачиваем готовый workflow и разбираем архитектуру за $0.15 за видео
Готовый workflow n8n для массовой генерации видео на Sora. Разбор архитектуры, себестоимость $0.15, инструкция по запуску. Скачать шаблон.
Context Engine: Собираем гибридный поиск по коду, который не сливает ваши данные в облако
Настраиваем Context Engine — локальную систему гибридного поиска по коду с AST-парсингом и MCP-клиентом. Полная инструкция по развертыванию без отправки данных
LuxTTS: как клонировать голос локально за 1 секунду на слабом GPU
LuxTTS — легковесная диффузионная модель для клонирования голоса. Запускается на GPU с 1 ГБ VRAM, генерирует 150 секунд аудио в секунду. Полный обзор на 2026 го
Strix Halo против MiniMax-M2.1: Vulkan или ROCm? Q3_K_XL раскрывает все карты
Прямое сравнение Vulkan и ROCm бэкендов llama.cpp на AMD Strix Halo с 128GB RAM для MiniMax-M2.1 Q3_K_XL. Реальные цифры производительности за январь 2026.
Sweep: Как запустить 1.5B модель для предсказания правок кода и повысить продуктивность
Обзор Sweep — инструмента с моделью на 1.5B параметров для предсказания следующих правок в коде. Сравнение с Copilot, установка, примеры использования и повышен
LongCat Flash Thinking 2601: агент, который обещает обогнать Claude. Получилось?
Разбираем новую модель LongCat Flash Thinking 2601: тестируем 60+ инструментов, сравниваем производительность с Claude 4.5 Sonnet и считаем реальную стоимость з
Apple Foundation Models на Mac: Полный гайд по afm для локального ИИ
Пошаговое руководство по установке afm CLI для запуска Apple Foundation Models на macOS Tahoe с веб-интерфейсом и OpenAI-совместимым API.
DFlash: Как ускорить LLM-инференс в 2 раза с помощью блочного спекулятивного декодирования
Обзор DFlash - революционного метода ускорения LLM-инференса через diffusion-style декодирование. Сравнение с vLLM, TensorRT-LLM, интеграция с SGLang.
TensorTonic: Когда математика для ML перестала быть скучной
TensorTonic — образовательная платформа с реализацией 100+ ML алгоритмов и 60+ тем по математике. Обзор возможностей, сравнение с альтернативами и для кого подх
Drift: Как научить AI-агента понимать ваш код с помощью MCP и 150+ детекторов паттернов
Open-source инструмент Drift с MCP-сервером и 150+ детекторами паттернов помогает AI-агентам понимать вашу кодовую базу без токенного перерасхода. Установка: np