Инструменты
Подборка AI-инструментов. Только то, что работает.
LiteParse от LlamaIndex: локальный парсинг документов через CLI без облаков
Обзор LiteParse от LlamaIndex - open-source CLI для локального парсинга документов. Установка, примеры команд, сравнение с облачным LlamaParse. Анализ возможнос
Субсекундный запуск 32B моделей: технология восстановления состояния для мгновенной загрузки ИИ
Обзор технологии восстановления состояния GPU для запуска 32B моделей за секунды. Как работает, сравнение с альтернативами и практическое применение локально в
QwenDean-4B: Ваш локальный v0-dev за 4 миллиарда параметров
Практический разбор QwenDean-4B - fine-tuned Qwen3-4B для генерации интерфейсов как v0.dev. Возможности, сравнение, примеры использования и кому подойдет.
Обзор PearlOS: как запустить рой интеллектуальных агентов на своём ПК с локальным TTS
Обзор PearlOS - ОС для интеллектуальных агентов с поддержкой локальных моделей и TTS. Установка, примеры, сравнение с аналогами на 2026 год.
Widemem: open-source память для агентов с оценкой достоверности, чтобы ИИ говорил «Не знаю»
Обзор Widemem — open-source библиотеки для борьбы с галлюцинациями AI-агентов. Векторный поиск с SQLite, оценка confidence score, интеграция с Ollama. Установка
acestep.cpp: как установить и использовать портируемую реализацию ACE-Step 1.5 для генерации музыки на GGML
Пошаговое руководство по установке и использованию acestep.cpp — портируемой реализации ACE-Step 1.5 для локальной генерации музыки на CPU, CUDA и Metal.
Nemotron-3-Super-120B дистиллирована от Claude 4.6: когда 120 миллиардов параметров помещаются в ваш ноутбук
Практический обзор дистиллированной Nemotron-3-Super-120B от Claude 4.6. Сравнение форматов BF16, FP8, GGUF и инструкция по локальному запуску мощной модели.
SPEED-Bench: когда спекулятивное декодирование перестает быть магией и становится цифрами
Полный обзор SPEED-Bench — нового стандарта для оценки скорости спекулятивного декодирования в больших языковых моделях. Примеры использования и сравнения.
AFM MLX: как ускорить локальные LLM на Mac с помощью нативного Swift-инструмента
Узнайте, как AFM MLX ускоряет локальные LLM на Apple Silicon с помощью нативного Swift, batch mode и prefix cache. Сравнение с альтернативами и примеры использо
CompactifAI: как технологии сжатия Multiverse Computing позволяют запускать мощные модели локально
Как работает CompactifAI от Multiverse Computing. Технология квантового сжатия для запуска GPT-4o-class моделей на ноутбуке. Сравнение, примеры, кому подойдет в
Qwen3.5-40B как локальная замена Claude Opus: обзор тонких настроек и GGUF квантований
Обзор Qwen3.5-40B как локальной замены Claude Opus. Тонкие настройки, GGUF квантования, сравнение с альтернативами и рекомендации по использованию.
Arandu v0.6.0: обзор лаунчера для llama.cpp с управлением моделями и HuggingFace
Обзор Arandu v0.6.0 — графического лаунчера для llama.cpp с интеграцией HuggingFace. Скачивание моделей, запуск сервера, мониторинг железа.