Speakr v0.8.0: самохостуемая транскрипция с REST API и диарзацией | AiManual
AiManual Logo Ai / Manual.
08 Янв 2026 Инструмент

Speakr v0.8.0: автономная транскрипция с диарзацией для автоматизации без GPU

Настройте локальную транскрипцию с диарзацией через WhisperX, REST API и интеграцией с Ollama для полной автоматизации без GPU.

Почему Speakr — не очередной враппер для Whisper

Открываю GitHub. Вижу десяток проектов с приставкой "whisper-". Большинство — интерфейсы для одного и того же движка. Speakr v0.8.0 делает две вещи, которые меняют правила игры: диарзацию без GPU и готовый REST API для автоматизации.

Диарзация — это разделение текста по говорящим. "Speaker 1", "Speaker 2" вместо сплошного монолога. Whisper этого не умеет. WhisperX — умеет, но требует GPU. Speakr делает диарзацию на CPU.

Что внутри v0.8.0

Разработчик собрал пазл из проверенных компонентов, но сделал это правильно:

  • WhisperX для транскрипции — тот же Whisper, но с временными метками и возможностью диарзации
  • Питоновская магия для CPU — диарзация работает без видеокарты, хоть и медленнее
  • REST API с Swagger — не нужно писать скрипты, достаточно curl или Postman
  • JWT-токены — если вдруг решите открыть доступ не всем
  • Интеграция с Ollama/LM Studio — транскрипцию можно сразу отправлять в локальную LLM

Сравнение: Speakr против альтернатив

Я тестировал три подхода к локальной транскрипции. Результаты разные:

Инструмент Диарзация API Требования
Speakr v0.8.0 Да (CPU) REST + Swagger Python, 4GB RAM
Чистый Whisper Нет Нет Python, 2GB RAM
Whisper + Ollama Нет Скрипты Python, Ollama
OpenAI gpt-4o-transcribe Да Cloud API Интернет, $0.006/мин

Если вам нужна диарзация и вы не хотите платить OpenAI — выбор очевиден. Если диарзация не важна, возможно, подойдет LFM2-2.6B-Transcript или обычный Whisper.

Настройка за 15 минут

Клонируете репозиторий. Устанавливаете зависимости. Запускаете сервер. Никаких танцев с бубном.

1 Установка и первый запуск

Создаете виртуальное окружение (или не создаете — на свой страх и риск). Ставите зависимости из requirements.txt. WhisperX сам подтянет модели при первом запуске. Это займет время и гигабайты.

Модели WhisperX весят от 1.5GB до 10GB. Убедитесь, что на диске есть место. Если нет — выберите tiny или base модель в настройках.

2 Настройка диарзации

В конфиге меняете одну строку: diarization = true. Но есть нюанс — диарзация на CPU работает в 3-5 раз медленнее транскрипции. Минутный аудиофайл обрабатывается 15-30 секунд вместо 5.

3 Интеграция с Ollama

Speakr может отправлять транскрипцию прямо в локальную LLM. Настраиваете endpoint Ollama в конфиге. После транскрипции получаете не просто текст, а суммаризацию, ответы на вопросы, перевод — что угодно.

💡
Используйте маленькие модели вроде Phi-3-mini для суммаризации. Они быстрые и достаточно умные для этой задачи. Если нужен поиск в интернете — посмотрите WebSearch AI.

REST API: автоматизация без программирования

Вот где Speakr вырывается вперед. После запуска сервера получаете Swagger-документацию по адресу /docs. Три основных эндпоинта:

  • POST /transcribe — загружаете аудиофайл, получаете JSON с транскрипцией
  • GET /jobs/{job_id} — проверяете статус длительной задачи
  • POST /summarize — транскрипция + суммаризация за один запрос

Теперь цепочка: записываете подкаст → Dropbox/Google Drive загружает файл → n8n/Zapier ловит вебхук → отправляет файл в Speakr → получает транскрипцию → отправляет в Google Docs. Полная автоматизация, ноль ручной работы.

Для кого Speakr — идеальное решение

Не всем нужна такая сложность. Но если вы попадаете в одну из категорий — попробуйте обязательно:

  1. Подкастеры — автоматическая расшифровка выпусков с разметкой по гостям
  2. Журналисты — интервью превращаются в текст с указанием, кто что сказал
  3. Команды разработчиков — стендапы и митинги архивируются и становятся поискaемыми
  4. Исследователи — фокус-группы и интервью анализируются локально, без утечки данных
  5. Юристы — запись встреч с клиентами становится структурированным документом

Если вы работаете с чувствительными данными, локальность — не прихоть, а необходимость. Speakr не отправляет ничего в облака.

Ограничения, которые стоит знать заранее

Идеальных инструментов не бывает. У Speakr есть свои границы:

  • Только английский для диарзации — WhisperX отлично определяет говорящих на английском, с другими языками хуже
  • CPU диарзация медленная — если обрабатываете часы аудио ежедневно, готовьтесь к ожиданию
  • Нет real-time транскрипции — только обработка записанных файлов
  • Требует технических навыков — это не приложение с кнопкой «Пуск»

Для real-time сценариев смотрите в сторону AI-приложений для диктовки. Для студийного качества синтеза речи из текста — локальные TTS.

Что дальше? Прогноз на следующие версии

Разработчик активно ведет репозиторий. В планах (или в моих фантазиях):

  • Поддержка большего количества аудиоформатов без конвертации
  • Веб-интерфейс для загрузки файлов и просмотра результатов
  • Интеграция с облачными хранилищами (S3, Backblaze)
  • Пакетная обработка папок с файлами
  • Поддержка MCP через PlexMCP для подключения к другим инструментам

Самое интересное — если разработчик добавит VAD (Voice Activity Detection) для автоматического разделения длинных записей. Это снизит нагрузку на память и ускорит обработку.

Совет от практика: настройте Speakr на отдельном мини-ПК или стареньком ноутбуке. Оставьте его работать в фоне. Забудьте про транскрипцию как рутинную задачу. Автоматизируйте через API и живите спокойно.

Speakr v0.8.0 — не революция. Это эволюция. Взяли проверенные технологии, добавили недостающие части (API, интеграции), упаковали для реального использования. Те, кто годами мучились с Whisper-скриптами, оценят.

Попробуйте. Худшее, что случится — потратите час на настройку. Лучшее — избавитесь от ручной транскрипции навсегда.