Инструменты для работы с AI - AiManual
AiManual Logo Ai / Manual.

Инструменты

Подборка AI-инструментов. Только то, что работает.

L

LiteParse от LlamaIndex: локальный парсинг документов через CLI без облаков

Обзор LiteParse от LlamaIndex - open-source CLI для локального парсинга документов. Установка, примеры команд, сравнение с облачным LlamaParse. Анализ возможнос

Обзор
С

Субсекундный запуск 32B моделей: технология восстановления состояния для мгновенной загрузки ИИ

Обзор технологии восстановления состояния GPU для запуска 32B моделей за секунды. Как работает, сравнение с альтернативами и практическое применение локально в

Обзор
Q

QwenDean-4B: Ваш локальный v0-dev за 4 миллиарда параметров

Практический разбор QwenDean-4B - fine-tuned Qwen3-4B для генерации интерфейсов как v0.dev. Возможности, сравнение, примеры использования и кому подойдет.

Обзор
О

Обзор PearlOS: как запустить рой интеллектуальных агентов на своём ПК с локальным TTS

Обзор PearlOS - ОС для интеллектуальных агентов с поддержкой локальных моделей и TTS. Установка, примеры, сравнение с аналогами на 2026 год.

Обзор
W

Widemem: open-source память для агентов с оценкой достоверности, чтобы ИИ говорил «Не знаю»

Обзор Widemem — open-source библиотеки для борьбы с галлюцинациями AI-агентов. Векторный поиск с SQLite, оценка confidence score, интеграция с Ollama. Установка

Обзор
a

acestep.cpp: как установить и использовать портируемую реализацию ACE-Step 1.5 для генерации музыки на GGML

Пошаговое руководство по установке и использованию acestep.cpp — портируемой реализации ACE-Step 1.5 для локальной генерации музыки на CPU, CUDA и Metal.

Обзор
N

Nemotron-3-Super-120B дистиллирована от Claude 4.6: когда 120 миллиардов параметров помещаются в ваш ноутбук

Практический обзор дистиллированной Nemotron-3-Super-120B от Claude 4.6. Сравнение форматов BF16, FP8, GGUF и инструкция по локальному запуску мощной модели.

Обзор
S

SPEED-Bench: когда спекулятивное декодирование перестает быть магией и становится цифрами

Полный обзор SPEED-Bench — нового стандарта для оценки скорости спекулятивного декодирования в больших языковых моделях. Примеры использования и сравнения.

Обзор
A

AFM MLX: как ускорить локальные LLM на Mac с помощью нативного Swift-инструмента

Узнайте, как AFM MLX ускоряет локальные LLM на Apple Silicon с помощью нативного Swift, batch mode и prefix cache. Сравнение с альтернативами и примеры использо

Обзор
C

CompactifAI: как технологии сжатия Multiverse Computing позволяют запускать мощные модели локально

Как работает CompactifAI от Multiverse Computing. Технология квантового сжатия для запуска GPT-4o-class моделей на ноутбуке. Сравнение, примеры, кому подойдет в

Обзор
Q

Qwen3.5-40B как локальная замена Claude Opus: обзор тонких настроек и GGUF квантований

Обзор Qwen3.5-40B как локальной замены Claude Opus. Тонкие настройки, GGUF квантования, сравнение с альтернативами и рекомендации по использованию.

Обзор
A

Arandu v0.6.0: обзор лаунчера для llama.cpp с управлением моделями и HuggingFace

Обзор Arandu v0.6.0 — графического лаунчера для llama.cpp с интеграцией HuggingFace. Скачивание моделей, запуск сервера, мониторинг железа.

Обзор