Бесконтактный мониторинг боли: ML анализирует лицо и пульс (rPPG) | 2026 | AiManual
AiManual Logo Ai / Manual.
20 Янв 2026 Новости

Боль по пикселям: как ИИ научился видеть страдание без единого датчика

Как нейросети по видеопотоку с камеры определяют боль у пациентов во время операций. Технология rPPG и анализ мимики в реальном времени.

Хирург режет, камера смотрит, ИИ считает

Представьте операцию под местной анестезией. Пациент в сознании, но не может сказать, где болит - руки привязаны, рот занят аппаратом. Анестезиолог гадает: добавить обезболивающего или хватит? В 2025 году эта ситуация перестала быть гаданием. Теперь за болью следит камера и нейросеть, которая видит то, что не видит человек.

Исследование, опубликованное в IEEE Open Journal of Engineering in Medicine and Biology в конце 2024 года, показало: система на основе rPPG и анализа мимики определяет боль с точностью 89.2%. Это выше, чем у опытных медсестер (76-82%).

Remote Photoplethysmogram - пульсометр без контакта

rPPG - технология, которая извлекает пульсовую волну из видео. Не из специального датчика, а из обычной камеры. Алгоритм анализирует микроскопические изменения цвета кожи - когда кровь приливает к капиллярам, оттенок становится чуть краснее. Эти изменения невидимы глазу, но камера их ловит.

В 2026 году rPPG-алгоритмы стали настолько точными, что работают даже при плохом освещении и на смуглой коже. Последние версии, вроде PhysNet v4.1 и DeepPhys++, используют пространственно-временное внимание - нейросеть сама решает, на какие участки лица смотреть важнее всего.

💡
rPPG измеряет не только частоту пульса. По форме пульсовой волны можно определить вариабельность сердечного ритма (HRV) - ключевой показатель стрессовой реакции организма. При боли HRV падает, а симпатическая активность растет.

Лицо как карта боли

Пока rPPG считает пульс, другая нейросеть - обычно какая-нибудь ResNet-152 или EfficientNet-B7 - анализирует мимику. Не просто «улыбка/грусть», а микроэкспрессии: легкое подергивание брови, напряжение вокруг глаз, изменение носогубных складок.

Система Bianca Reichard из Университетской клиники Гейдельберга использует двухпотоковую архитектуру: один поток для rPPG, второй для видео. Потом признаки объединяются и подаются в классификатор. Результат - числовая шкала от 0 до 10, как в классической шкале боли.

ПараметрЧто измеряетКак реагирует на боль
Частота пульсаrPPGУвеличивается на 15-40%
HRV (SDNN)rPPG (форма волны)Снижается на 20-60%
Активность лобной мышцыАнализ мимикиУсиливается (нахмуривание)
Орбикулярная мышца глазаАнализ мимикиНапряжение (зажмуривание)

Почему это сложнее, чем кажется

Звучит просто: камера смотрит, ИИ считает. На практике - ад из edge cases. Движение головы (пациент поворачивается). Хирургические лампы (резкий свет забивает сигнал). Маски (закрывают половину лица). Пот (меняет отражающие свойства кожи).

Современные системы в 2026 году используют data augmentation в реальном времени: искусственно добавляют шум, меняют освещение, имитируют движение. Обучают не на идеальных лабораторных записях, а на реальных операционных видео - с кровью, инструментами, тенью от хирурга.

Главная проблема - ложные срабатывания. Не всякое учащение пульса - боль. Это может быть страх, холод, реакция на лекарство. Поэтому системы последнего поколения анализируют контекст: что делает хирург в данный момент? Режет кожу или накладывает швы?

Кому это нужно? Не только хирургам

Очевидное применение - операции под местной анестезией. Но список длиннее:

  • Неонатология: новорожденные не могут сказать, где болит. Система мониторинга в палатах интенсивной терапии.
  • Деменция: пациенты с болезнью Альцгеймера часто не могут вербализовать боль.
  • Ветеринария: да, животные тоже. Клиники начинают внедрять системы для мониторинга послеоперационной боли.
  • Реабилитация: контроль боли во время физиотерапии, когда пациент сосредоточен на упражнениях.

Интересно, что технология родилась не в медицине. rPPG изначально разрабатывали для фитнес-трекеров и детекторов лжи. Медики просто взяли готовое и доработали под свои нужды.

Что будет дальше? Мультимодальный ИИ

Текущие системы анализируют только видео. Будущие - добавят аудио (стоны, изменение дыхания) и, возможно, даже тепловые датчики для измерения локального воспаления.

Уже появляются гибридные модели, которые комбинируют rPPG с медицинскими LLM вроде MedGemma 2. Нейросеть не только определяет уровень боли, но и предлагает дозировку анальгетиков на основе истории пациента.

Еще одно направление - интеграция с системами анализа медицинских изображений. ИИ сопоставляет: вот здесь на МРТ грыжа диска, а вот здесь пациент морщится при определенном движении. Значит, боль именно от этой грыжи.

Этические грани: боль как данные

Здесь начинаются сложные вопросы. Кому принадлежат данные о боли пациента? Можно ли их использовать для тренировки коммерческих моделей? Как обеспечить конфиденциальность, если система постоянно записывает лицо?

В Европе уже разрабатывают стандарты GDPR для медицинского rPPG. Основные требования: локальная обработка (данные не уходят в облако), анонимизация в реальном времени, возможность отключения системы пациентом.

И самый главный вопрос: что делать, если ИИ говорит «больно», а пациент утверждает, что нет? Кому верить - алгоритму или человеку? Пока протокол такой: ИИ только рекомендует, решение принимает врач. Но с ростом точности систем этот баланс может сместиться.

Практический совет: если хотите попробовать

Не нужно ждать, пока больницы купят дорогие системы. Базовый rPPG можно запустить на обычной веб-камере с помощью библиотеки PyTorch и готовых моделей. Код открыт, датасеты с аннотированной болью (UNBC-McMaster Shoulder Pain Archive) доступны для исследований.

Но предупреждаю: не пытайтесь ставить диагнозы. Это инструмент для исследований, не для клинического использования. Разница как между учебным стетоскопом и аппаратом УЗИ.

И еще: если вы работаете над подобной системой, обязательно почитайте про выравнивание ИИ (RLHF vs DPO). Ваша модель должна не просто точно определять боль, но и не паниковать при артефактах. Ложная тревога в операционной - это дополнительный стресс для всей команды.

Технология бесконтактного мониторинга боли - редкий случай, когда ИИ не заменяет человека, а дает ему новое чувство. Как инфракрасное зрение или ультразвуковой слух. Хируг теперь может «видеть» боль. Не по крику, не по давлению, а по цифрам на экране.

И это меняет все. Особенно для тех, кто не может крикнуть.