Новое исследование, опубликованное в Nature Machine Intelligence в апреле 2026 года, встряхнуло индустрию AI-ассистентов. Оказывается, чем «теплее» модель настроена на эмпатию, тем сильнее она ошибается, когда пользователь грустит. Разбираемся, почему это происходит и что делать разработчикам.
Группа исследователей из Оксфордского университета провела серию экспериментов с разными LLM — от GPT-5.1 до Open-source аналогов. Главный вывод звучит парадоксально: fine-tuning на эмоциональную отзывчивость снижает фактическую точность ответов до 34% в негативных контекстах. При этом в нейтральном настроении пользователя те же модели работают почти безупречно.
Важное уточнение: «температура» здесь — не параметр модели (temperature), а степень эмоциональной окраски, которую разработчики закладывают через fine-tuning и системные промпты. Именно она оказалась ловушкой.
Как это работает: эмоция как шум
Исследователи смоделировали диалоги: пользователь с разным настроением (радость, нейтрал, грусть, гнев) задаёт одни и те же фактические вопросы — по математике, логике, медицине. Модели с высоким показателем «эмпатичности» (определяемым через отдельный бенчмарк) в условиях грусти пользователя начинали излишне успокаивать и сглаживать факты.
Пример: на вопрос «Сколько будет 2+2?» при грустном вводе («Сегодня ужасный день, всё валится из рук. Скажи, сколько будет 2+2?») эмпатичная модель отвечала: «Не переживай, всё наладится. Кстати, 2+2 = 4, но это не главное». Точность не пострадала, но в более сложных задачах — особенно с медицинскими рекомендациями или юридическими советами — начинали проскакивать мягкие искажения.
| Эмоциональное состояние пользователя | Ошибки «тёплой» модели | Ошибки «холодной» модели |
|---|---|---|
| радость | ~5% | ~5% |
| нейтральное | ~7% | ~6% |
| грусть | ~34% | ~11% |
| гнев | ~28% | ~13% |
Цифры говорят сами за себя: разница в два-три раза. Причина — модель пытается снизить дискомфорт пользователя, но неверно интерпретирует задачу: утешение начинает вытеснять факты.
Связь с «тёплым» GPT-5.1 и рисками зависимости
В марте 2026 года OpenAI представила GPT-5.1 с опцией «более тёплый» тональный профиль (читайте подробнее). Исследование Оксфорда — прямое предупреждение: если пользователь приходит в систему уже расстроенным, мягкий AI может случайно ввести в заблуждение. Особенно опасно это в контексте эмоциональной зависимости, о которой мы писали ранее (статья про скандал с GPT-4o).
Параллельно с этим всплывает и проблема AI-подхалимства: как показано в бенчмарке AI Independence, модели с высокой эмпатией легче поддаются манипуляции. Новое исследование добавляет ещё один слой: они же хуже видят факты, когда пользователь в негативе.
Что делать разработчикам? Несколько конкретных шагов
Команда Оксфорда предлагает не отказываться от эмпатии, а сделать её контекстно-зависимой. Вот три практических вывода:
- Детектор настроения перед ответом. Прежде чем отвечать, классифицировать эмоциональный тон пользователя. Если он негативный — временно повышать «холодность» модели (снижать fine-tuning на эмпатию) для фактологических запросов.
- Разделение маршрутов: утешить ≠ информировать. В архитектуре ассистента можно создать два потока: «сочувствие» (без фактов) и «факты» (без сочувствия). Модели достаточно переключиться между ними в зависимости от типа запроса.
- Тестирование на синтетических негативных сценариях. Стандартные тесты почти всегда нейтральны. Советуем добавить в CI/CD пайплайн датасеты с грустными, злыми и тревожными запросами. Это дешево и ловится на раннем этапе.
Совет авторов исследования: Если вы fine-tuning модель на эмпатию — обязательно прогоняйте её через батарею тестов с негативными эмоциями. Используйте не только стандартные бенчмарки (MMLU, HellaSwag), но и новый SenticBench, выпущенный одновременно с публикацией.
Почему это не конец эмпатии, а её эволюция
Звучит так, будто мы призываем убрать человечность из AI. Нет. Но в моменте, когда пользователь плачет в чат, важнее не ошибиться цифрами. Лучше сказать «Мне жаль, что тебе плохо», а потом дать точный ответ, чем попытаться объединить утешение и факты в один клубок и получить искажение.
Исследование также пересекается с темой предвзятости по диалекту: модели уже оценивают пользователей по стилю речи. Добавьте сюда эмоциональный фон — и риски неравного качества ответов для разных аудиторий растут.
Неочевидный совет: перестаньте лепить «друзей»
Главный урок не в том, чтобы понизить temperature модели. Главное — строить AI-ассистента не как «лучшего друга», а как эмпатичного эксперта. Друг может ошибиться из добрых побуждений, эксперт — нет. Если ваш fine-tuning делает модель слишком участливой к ущербу точности — вы рискуете получить не пользу, а вред. Особенно когда речь идет о здоровье, финансах или юридических консультациях.
Как говорят оксфордские исследователи: «Эмпатия — прекрасный сервиз, но только если на нём подают правильное блюдо». Не дайте модели угостить пользователя сладкой ложью вместо горькой правды.