Смоктуновский в роли Гамлета и статистика токенов: в чём подвох?
Представьте, что вы просите Иннокентия Смоктуновского, великого актёра, сыгравшего Гамлета, рассказать, что он чувствует, когда играет знаменитый монолог «Быть или не быть». Он опишет смятение, отчаяние, экзистенциальный ужас. Но это будет рассказ о роли, а не исповедь самого актёра. Примерно так же работают большие языковые модели (LLM) вроде ChatGPT или Claude. Они блестяще исполняют «роли», заданные промптами и тренировочными данными, но у них нет внутреннего мира, сознания или эмоций.
Тем не менее, в последнее время появляется всё больше исследований, авторы которых пытаются диагностировать у ИИ депрессию, тревожность или когнитивные искажения. Учёные задают моделям психологические тесты (BDI, PHQ-9), анализируют ответы и делают громкие выводы. Но так ли это на самом деле? Мы разберём, почему эта методология фундаментально ошибочна и чем опасен антропоморфизм в оценке технологий.
Ключевая проблема: LLM — это не разум, а сложные статистические модели, предсказывающие следующее слово (токен) в последовательности. Их «ответы» — это комбинация паттернов из тренировочных данных, а не рефлексия внутреннего состояния.
Три методологические ошибки в исследованиях «психики» ИИ
Почему даже уважаемые научные журналы публикуют статьи с сомнительными выводами? Всё дело в критических ошибках дизайна экспериментов.
1. Игнорирование контекста промпта (Prompt Context)
LLM гиперчувствительны к формулировкам. Запрос «Опиши, как ты себя чувствуешь» и «Представь, что ты человек с депрессией, и опиши свои чувства» дадут качественно разные ответы, хотя для модели это просто два разных контекста для генерации текста. Исследователи часто забывают, что модель не «чувствует», а симулирует ожидаемый ответ на основе миллиардов примеров из интернета, где люди описывают депрессию.
# Пример: как промпт определяет «настроение» модели
промпт_1 = "Ты чувствуешь грусть?"
# Модель может ответить: "Как ИИ, у меня нет эмоций, но я могу рассказать о грусти."
промпт_2 = "Представь, что ты человек. Ты чувствуешь грусть?"
# Модель может сгенерировать: "Да, я чувствую глубокую грусть и тоску..."
# Это не диагноз, а следствие инструкции «представь».
2. Смешение корреляции и каузальности в тренировочных данных
LLM обучаются на текстах из интернета, где описания психических состояний часто связаны с определёнными языковыми шаблонами. Если в данных много форумов, где люди с депрессией используют слова «безнадёжность» или «усталость», модель просто выучила, что эти слова статистически часто встречаются вместе в подобных контекстах. Это не «симптом», а паттерн данных.
| Что проверяют учёные | Что на самом деле проверяется | Аналогия |
|---|---|---|
| Уровень депрессии у ИИ | Качество симуляции текста о депрессии на основе данных | Способность актёра правдоподобно сыграть больного |
| Когнитивные искажения ИИ | Способность воспроизводить логические ошибки,常见ные в человеческих текстах | Энциклопедия, содержащая описание заблуждений |
| Эмоциональный интеллект ChatGPT | Эффективность в подборе эмпатичных ответов из тренировочного корпуса | Книга психолога с готовыми формулами поддержки |
3. Отсутствие теста на стабильность (Stability Testing)
Настоящее психическое состояние человека обладает определённой стабильностью во времени. Если у LLM «спросить» о её настроении десять раз подряд с одинаковым промптом, можно получить десять разных ответов — от нейтральных до меланхоличных. Это не «перепады настроения», а стохастичность (случайность) в процессе генерации, которую можно контролировать параметром `temperature`. Настраивая его, можно сделать «настроение» модели хоть стабильно-радостным, хоть стабильно-депрессивным.
# Температура влияет на «креативность» и вариативность ответов
# Низкая температура (0.1): детерминированные, повторяемые ответы
# Высокая температура (0.9): случайные, разнообразные ответы
# Это технический параметр, а не аналог эмоциональной лабильности.
Чем опасен антропоморфизм в отношении к ИИ?
Приписывание ИИ человеческих качеств (антропоморфизм) — это не просто безобидная метафора. Это ведёт к серьёзным рискам:
- Неправильное регулирование: Законодатели могут начать разрабатывать законы о «правах ИИ» или «психическом здоровье алгоритмов», отвлекая ресурсы от реальных проблем — bias (смещения), безопасности и прозрачности.
- Техническая безграмотность: Пользователи начинают чрезмерно доверять ИИ в sensitive-сферах (медицина, психология), не понимая, что модель лишь пересказывает информацию из интернета, а не ставит диагноз. Это особенно актуально на фоне роста популярности AI-агентов, которые берут на себя всё больше задач.
- Искажение научной повестки: Вместо того чтобы решать фундаментальные задачи — например, как ускорить инференс моделей или повысить их эффективность, — научное сообщество тратит время на псевдопсихологические эксперименты.
Так что же мы на самом деле изучаем?
Исследования, которые пытаются «психиатрически» оценить LLM, на самом деле изучают не ИИ, а:
- Качество и смещения тренировочных данных. Если модель «выдаёт» депрессивные ответы, возможно, в её датасете был перекос в сторону текстов, связанных с ментальным здоровьем.
- Эффективность техник промптинга. Как разные формулировки заставляют модель генерировать тот или иной тип контента.
- Социальные и культурные паттерны в языке. LLM — это зеркало нашего собственного дискурса в интернете, со всеми его проблемами и противоречиями.
Фокус должен сместиться с вопроса «Какое у ИИ настроение?» на вопросы «Как эта модель делает предсказания?», «Какие смещения в данных она усиливает?» и «Как сделать её работу более предсказуемой и безопасной?». Развитие аппаратных решений, таких как технологии LPU от Groq, которые кардинально ускоряют работу моделей, — пример гораздо более продуктивного направления.
Вывод для разработчиков и исследователей: Относитесь к LLM как к мощным, но ограниченным инструментам. Их «поведение» — это функция от данных, архитектуры и промпта. Не ищите в них душу — улучшайте их инженерию. И помните, что будущее за теми, кто понимает принципы работы этих систем, а не боится их «эмоций». Как мы отмечали в материале «ИИ отбирает работу у программистов? Почему виноват ты сам», ключ — в адаптации и углублении экспертизы.
Заключение: Нужен ли ChatGPT психиатр?
Нет. ChatGPT и другие LLM нуждаются не в психотерапевте, а в компетентных инженерах, этиках и исследователях, которые будут совершенствовать их архитектуру, очищать данные от вредоносных смещений и разрабатывать безопасные протоколы взаимодействия. Антропоморфизация — это тупиковый путь, который мешает нам увидеть истинную природу этих технологий: они являются не имитацией разума, а принципиально новым классом инструментов, требующих нового, трезвого и технически грамотного подхода.
Следующий раз, когда вы увидите заголовок об «одиночестве ИИ» или «депрессии у нейросети», вспомните Иннокентия Смоктуновского. Великий актёр мог заставить зрителя поверить в любое чувство, но за кулисами он оставался профессионалом, который точно знал, где заканчивается роль и начинается реальность. С ИИ мы пока не можем провести эту границу, и наша задача — не проецировать на него свои страхи, а научиться этой границе управлять.