Инструменты
Подборка AI-инструментов. Только то, что работает.
ZLUDA для llama.cpp: ускорение LLM на AMD GPU без переписывания кода
ZLUDA позволяет запускать оптимизированный под CUDA код llama.cpp на видеокартах AMD. Обзор, сравнение с Vulkan и ROCm, примеры использования.
Pocket TTS: легкая 100M-параметровая модель, которая помещается в карман и работает без GPU
Обзор Pocket TTS - 100M-параметровой модели для локального синтеза речи. Сравнение с Coqui TTS, установка через Hugging Face и примеры использования.
Девять тысяч страниц интимного перевода: как билингвальная эротика учит LLM писать
Практическое руководство по использованию уникального датасета в 3.2 млн слов для тонкой настройки творческих языковых моделей. Примеры, сравнения, инструкция.
EXAONE MoE в llama.cpp: как запустить 236B модель локально и в чём её уникальность
Гайд по запуску EXAONE MoE 236B модели в llama.cpp. Mixture-of-Experts, 256K контекст, мультиязычность, self-speculative decoding. Системные требования, сравнен
Медицинский почерк на Qwen2.5-VL: как выжать OCR из MacBook с 8 ГБ памяти
Практическое руководство по настройке Qwen2.5-VL-3B/7B для распознавания рукописных медицинских журналов на Mac с 8 ГБ памяти. Сравнение с альтернативами, оптим
ClaudeGate: Как платить в 10 раз меньше за Claude API без переписывания кода
CLI-обёртка для замены Claude API на OpenRouter, DeepSeek и другие провайдеры. Установка, настройка, примеры использования.
GLM-Image: обзор новой открытой мультимодальной модели от Zai Org и сравнение с Qwen-VL и LLaVA
GLM-Image - новая открытая vision-language модель от Zai Org. Сравниваем с Qwen-VL и LLaVA по возможностям, производительности и применению.
NovaSR: как использовать крошечный 52 КБ аудио апсемплер для улучшения TTS и обработки аудио
NovaSR — крошечная модель для апсемплинга аудио, улучшает TTS и восстанавливает записи. Работает в 3600x реального времени, всего 52 КБ.
Soprano-Factory: как обучить свою сверхбыструю TTS-модель для работы на устройстве
Обзор Soprano-Factory для обучения сверхбыстрых TTS-моделей. 2000x realtime на GPU, 15 ms latency. Сравнение с аналогами и практическое руководство.
Fluid.sh: как дать AI-агентам root-доступ к инфраструктуре без риска для продакшена
Fluid.sh - open-source инструмент для безопасного выполнения AI-агентами операций на инфраструктуре через KVM sandbox и Ansible генерацию. Обзор и примеры.
Seline v0.1.4: локальный AI-агент обзавелся Codex и умным поиском
Локальный AI-агент Seline v0.1.4 получил поддержку OpenAI Codex OAuth, гибридный векторный поиск и мастер настройки. Обзор возможностей и туториал.
BMO на Raspberry Pi 5: как я собрал AI-компаньона с Mistral и зрением за 300$
Пошаговый обзор проекта BMO - голосового AI-компаньона на Raspberry Pi 5 с Mistral, OpenAI API и компьютерным зрением YOLO11n. Код на GitHub.