Хирург режет, камера смотрит, ИИ считает
Представьте операцию под местной анестезией. Пациент в сознании, но не может сказать, где болит - руки привязаны, рот занят аппаратом. Анестезиолог гадает: добавить обезболивающего или хватит? В 2025 году эта ситуация перестала быть гаданием. Теперь за болью следит камера и нейросеть, которая видит то, что не видит человек.
Исследование, опубликованное в IEEE Open Journal of Engineering in Medicine and Biology в конце 2024 года, показало: система на основе rPPG и анализа мимики определяет боль с точностью 89.2%. Это выше, чем у опытных медсестер (76-82%).
Remote Photoplethysmogram - пульсометр без контакта
rPPG - технология, которая извлекает пульсовую волну из видео. Не из специального датчика, а из обычной камеры. Алгоритм анализирует микроскопические изменения цвета кожи - когда кровь приливает к капиллярам, оттенок становится чуть краснее. Эти изменения невидимы глазу, но камера их ловит.
В 2026 году rPPG-алгоритмы стали настолько точными, что работают даже при плохом освещении и на смуглой коже. Последние версии, вроде PhysNet v4.1 и DeepPhys++, используют пространственно-временное внимание - нейросеть сама решает, на какие участки лица смотреть важнее всего.
Лицо как карта боли
Пока rPPG считает пульс, другая нейросеть - обычно какая-нибудь ResNet-152 или EfficientNet-B7 - анализирует мимику. Не просто «улыбка/грусть», а микроэкспрессии: легкое подергивание брови, напряжение вокруг глаз, изменение носогубных складок.
Система Bianca Reichard из Университетской клиники Гейдельберга использует двухпотоковую архитектуру: один поток для rPPG, второй для видео. Потом признаки объединяются и подаются в классификатор. Результат - числовая шкала от 0 до 10, как в классической шкале боли.
| Параметр | Что измеряет | Как реагирует на боль |
|---|---|---|
| Частота пульса | rPPG | Увеличивается на 15-40% |
| HRV (SDNN) | rPPG (форма волны) | Снижается на 20-60% |
| Активность лобной мышцы | Анализ мимики | Усиливается (нахмуривание) |
| Орбикулярная мышца глаза | Анализ мимики | Напряжение (зажмуривание) |
Почему это сложнее, чем кажется
Звучит просто: камера смотрит, ИИ считает. На практике - ад из edge cases. Движение головы (пациент поворачивается). Хирургические лампы (резкий свет забивает сигнал). Маски (закрывают половину лица). Пот (меняет отражающие свойства кожи).
Современные системы в 2026 году используют data augmentation в реальном времени: искусственно добавляют шум, меняют освещение, имитируют движение. Обучают не на идеальных лабораторных записях, а на реальных операционных видео - с кровью, инструментами, тенью от хирурга.
Главная проблема - ложные срабатывания. Не всякое учащение пульса - боль. Это может быть страх, холод, реакция на лекарство. Поэтому системы последнего поколения анализируют контекст: что делает хирург в данный момент? Режет кожу или накладывает швы?
Кому это нужно? Не только хирургам
Очевидное применение - операции под местной анестезией. Но список длиннее:
- Неонатология: новорожденные не могут сказать, где болит. Система мониторинга в палатах интенсивной терапии.
- Деменция: пациенты с болезнью Альцгеймера часто не могут вербализовать боль.
- Ветеринария: да, животные тоже. Клиники начинают внедрять системы для мониторинга послеоперационной боли.
- Реабилитация: контроль боли во время физиотерапии, когда пациент сосредоточен на упражнениях.
Интересно, что технология родилась не в медицине. rPPG изначально разрабатывали для фитнес-трекеров и детекторов лжи. Медики просто взяли готовое и доработали под свои нужды.
Что будет дальше? Мультимодальный ИИ
Текущие системы анализируют только видео. Будущие - добавят аудио (стоны, изменение дыхания) и, возможно, даже тепловые датчики для измерения локального воспаления.
Уже появляются гибридные модели, которые комбинируют rPPG с медицинскими LLM вроде MedGemma 2. Нейросеть не только определяет уровень боли, но и предлагает дозировку анальгетиков на основе истории пациента.
Еще одно направление - интеграция с системами анализа медицинских изображений. ИИ сопоставляет: вот здесь на МРТ грыжа диска, а вот здесь пациент морщится при определенном движении. Значит, боль именно от этой грыжи.
Этические грани: боль как данные
Здесь начинаются сложные вопросы. Кому принадлежат данные о боли пациента? Можно ли их использовать для тренировки коммерческих моделей? Как обеспечить конфиденциальность, если система постоянно записывает лицо?
В Европе уже разрабатывают стандарты GDPR для медицинского rPPG. Основные требования: локальная обработка (данные не уходят в облако), анонимизация в реальном времени, возможность отключения системы пациентом.
И самый главный вопрос: что делать, если ИИ говорит «больно», а пациент утверждает, что нет? Кому верить - алгоритму или человеку? Пока протокол такой: ИИ только рекомендует, решение принимает врач. Но с ростом точности систем этот баланс может сместиться.
Практический совет: если хотите попробовать
Не нужно ждать, пока больницы купят дорогие системы. Базовый rPPG можно запустить на обычной веб-камере с помощью библиотеки PyTorch и готовых моделей. Код открыт, датасеты с аннотированной болью (UNBC-McMaster Shoulder Pain Archive) доступны для исследований.
Но предупреждаю: не пытайтесь ставить диагнозы. Это инструмент для исследований, не для клинического использования. Разница как между учебным стетоскопом и аппаратом УЗИ.
И еще: если вы работаете над подобной системой, обязательно почитайте про выравнивание ИИ (RLHF vs DPO). Ваша модель должна не просто точно определять боль, но и не паниковать при артефактах. Ложная тревога в операционной - это дополнительный стресс для всей команды.
Технология бесконтактного мониторинга боли - редкий случай, когда ИИ не заменяет человека, а дает ему новое чувство. Как инфракрасное зрение или ультразвуковой слух. Хируг теперь может «видеть» боль. Не по крику, не по давлению, а по цифрам на экране.
И это меняет все. Особенно для тех, кто не может крикнуть.