Инструменты
Подборка AI-инструментов. Только то, что работает.
Orla: превращаем терминал в фабрику локальных ИИ-агентов
Установка и использование Orla для запуска локальных AI-агентов через терминал. Интеграция с Ollama, примеры команд, сравнение с альтернативами.
Локальный RAG для видео: с нуля до поиска за 15 минут
Запустите RAG для видео локально: Whisper для транскрипции, OCR для текста на кадрах, векторный поиск. API и примеры кода.
Adaptive-P: Когда llama.cpp наконец перестанет повторять одно и то же
Обзор Adaptive-P - нового сэмплера для llama.cpp. Как установить через PR, сравнение с Top-P и Top-K, примеры использования для креативного текста.
TraceML: Поймай утечки памяти и простои даталоадера до того, как они убьют твой LLM-тюнинг
Обзор TraceML — инструмента для отслеживания утечек памяти CUDA и простоев даталоадера при обучении LLM на PyTorch. Сравнение с альтернативами, примеры кода для
gsh: когда твой терминал внезапно поумнел и начал предсказывать команды
Обзор gsh — инструмента, который превращает терминал в интеллектуальную оболочку с локальными LLM. Установка, примеры использования, сравнение с альтернативами.
FLUX.2-dev-Turbo: 8 шагов до идеального фото — быстрее только мысль
Обзор FLUX.2-dev-Turbo — LoRA модели для редактирования изображений всего за 8 шагов инференса. Установка, сравнение с аналогами, практическое использование.
VectorDBZ: Твой отладчик для векторных БД. Не надо смотреть в код, смотри в GUI
Обзор VectorDBZ - open-source GUI для визуализации, анализа и отладки локальных векторных баз данных. Поддержка pgvector, Qdrant, Chroma, Milvus, Weaviate.
HomeGenie v2.0: Полностью локальный агентный ИИ для умного дома на CPU (обзор и установка)
Полный обзор HomeGenie v2.0 - локального агентного ИИ для умного дома. Работает на CPU с GGUF-моделями. Приватность, автономность, установка.
Propagate: когда backpropagation устарел, а эволюция - новый king
Обзор Propagate - инструмента для обучения языковых моделей без обратного распространения. Эволюционные стратегии, ускорение тренировки, сравнение с LoRA и GRPO
HyperNova-60B: когда можно решать сложные задачи, но не хочется платить за все 120 миллиардов параметров
Практичный обзор HyperNova-60B: MoE-архитектура, MXFP4 квантование, настройка reasoning усилителя и экономия VRAM. Для кого подойдет эта модель?
GLM-4.7-REAP-40p IQ3_S на RTX 6000: хватит ли 48 ГБ для SWE-Bench?
Запускаем GLM-4.7-REAP-40p с квантованием IQ3_S на RTX 6000, тестируем на реальных задачах SWE-Bench. Полный код, результаты, сравнение с альтернативами.
Flow Protocol: как развернуть децентрализованную сеть для нецензурируемого AI-инференса на своём GPU
Как запустить Flow Protocol на своей видеокарте. Настройка децентрализованной P2P сети для нецензурируемого AI-инференса и майнинга. Полный гайд.