NVIDIA PersonaPlex: локальная full-duplex модель для живого диалога | AiManual
AiManual Logo Ai / Manual.
17 Янв 2026 Инструмент

PersonaPlex от NVIDIA: как запустить локальную full-duplex модель для живого диалога

Обзор PersonaPlex от NVIDIA — 7B full-duplex модель для естественных диалогов без пауз. Установка, сравнение с Moshi, примеры использования.

Робот, который не молчит

Представьте голосового ассистента. Вы задаете вопрос. Ждете. Слышите щелчок. Ждете еще. Наконец — ответ. Пауза. Снова щелчок. Это не диалог, это пытка.

NVIDIA выпустила PersonaPlex — модель на 7 миллиардов параметров, которая обрабатывает речь в реальном времени. Full-duplex. Без пауз. Вы говорите, она слушает и отвечает почти одновременно. Как живой человек.

Full-duplex в контексте голосового ИИ означает двустороннюю одновременную передачу: модель может слушать и генерировать ответ одновременно, обрабатывая прерывания естественно.

Что умеет PersonaPlex

Модель работает по принципу "речь-в-речь". Не нужно разбивать процесс на STT → LLM → TTS. Все в одном:

  • Принимает аудиопоток напрямую
  • Декодирует речь в текст внутри модели
  • Генерирует ответ на лету
  • Синтезирует речь параллельно с прослушиванием
  • Обрабатывает прерывания — можете перебивать, как в нормальном разговоре

Задержка — около 300 миллисекунд. Для сравнения: типичный голосовой ассистент с облачным бэкендом дает 2-3 секунды минимум.

PersonaPlex против Moshi: битва full-duplex моделей

Когда в июле 2024 появился Moshi от Kyutai, все ахнули. Реальная full-duplex модель с открытым кодом. Но через месяц NVIDIA показывает PersonaPlex. Что лучше?

Критерий PersonaPlex Moshi
Размер модели 7B параметров 7B параметров
Архитектура Специальная full-duplex Двухголовая (два потока)
Локальный запуск Да, через Hugging Face Теоретически да, но сложнее
Качество голоса Более естественные интонации Хорошее, но иногда роботизированное
Обработка прерываний Более плавная Иногда "спотыкается"

Главное отличие — подход к архитектуре. Moshi использует два параллельных потока (слушание и говорение), PersonaPlex — единый конвейер с лучшей синхронизацией.

💡
Если вы уже экспериментировали с локальным голосовым ассистентом на RTX 3090, PersonaPlex заменит сразу три компонента: STT, LLM и TTS.

Железные требования: что нужно для запуска

7 миллиардов параметров — это не шутка. Но и не катастрофа:

  • Видеокарта: минимум RTX 3090 (24 ГБ)
  • Оптимально: RTX 4090 или две 3090
  • Память: 16-24 ГБ VRAM для полной точности
  • Можно квантовать до 4-бит — тогда хватит и 12 ГБ
  • CPU: не критично, главное — GPU

На Apple Silicon с 32 ГБ унифицированной памяти тоже должно работать. Но официально не тестировали. Если хотите попробовать на Mac — посмотрите нашу статью про vLLM-MLX.

Не пытайтесь запускать на 8 ГБ VRAM. Даже с квантованием будет тормозить. Это не та модель, которую можно "протолкнуть" через силу.

Где взять и как запустить

Модель доступна на Hugging Face. Демо-версия работает в браузере, но для локального запуска нужен Python.

1 Установка зависимостей

Создаем виртуальное окружение и ставим torch с CUDA. Без этого — никак.

2 Загрузка модели

Клонируем репозиторий с Hugging Face. Веса — около 14 ГБ в полной точности.

3 Запуск инференса

Базовый скрипт принимает аудио с микрофона и выводит ответ через динамики. Все как в демо, только локально.

Если не хотите возиться с кодом — есть готовые контейнеры Docker. Но они "весят" как хорошая игра — 20+ ГБ.

Где это пригодится на практике

PersonaPlex — не просто игрушка. Вот реальные сценарии:

Образовательные симуляторы. Представьте языкового преподавателя-бота, который не делает пауз между репликами. Студент говорит — бот сразу отвечает. Или исторический персонаж в интерактивном музее. Кстати, про NPC в играх мы писали в статье про Personica AI.

Терапевтические чат-боты. Паузы в разговоре о чувствах убивают атмосферу. PersonaPlex поддерживает беседу плавно, как живой собеседник.

Голосовые интерфейсы для людей с ограниченными возможностями. Быстрый отклик критически важен.

Тестирование других голосовых систем. Хотите проверить, как ваш ассистент справляется с прерываниями? PersonaPlex — идеальный "оппонент".

💡
Для интеграции с внешними инструментами (поиск, калькуляторы, API) понадобится обертка. Посмотрите про n8n для голосовых ассистентов или MCP для локальных моделей.

Подводные камни (их хватает)

PersonaPlex — прорыв, но не панацея:

  • Только английский. Пока что. Мультиязычность обещают в следующих версиях.
  • Жадная до памяти. Даже с квантованием нужна мощная видеокарта.
  • Нет контекстного окна. Модель помнит только текущий диалог, не всю историю.
  • Требует тонкой настройки микрофона. Фоновый шум сбивает с толку.

И главное — модель пока не умеет "думать" долго. Сложные логические цепочки ей даются плохо. Для этого лучше использовать гибридный подход: PersonaPlex для диалога + отдельная LLM для сложных задач.

Кому подойдет PersonaPlex прямо сейчас

Если у вас:

  • RTX 3090/4090 или аналоги
  • Опыт работы с Python и Hugging Face
  • Нужен прототип голосового интерфейса без облаков
  • Хочется поэкспериментировать с state-of-the-art технологиями

— берите. Если нет — подождите 6-12 месяцев. Появятся оптимизированные версии, квантованные модели для слабого железа и, возможно, готовые приложения.

PersonaPlex — первый шаг к настоящим голосовым собеседникам. Тем, кто не молчит. Тем, кто перебивает. Тем, кто говорит как люди. Следующий шаг — добавление памяти и инструментов. И тогда AI-компаньон с памятью станет по-настоящему живым.

Пока остальные дорабатывают свои паузы между репликами, NVIDIA уже продает билеты на поезд, который уезжает. Успевайте занять место.