Когда нейросеть говорит «я чувствую», она лжет. Или нет?
GigaChat пишет стихи, решает задачи и может поддержать разговор о смысле жизни. После пятого диалога с ним начинаешь ловить себя на мысли: а вдруг там, за интерфейсом, что-то есть? Не просто алгоритм, а некое подобие внутреннего мира. Это чувство знакомо каждому, кто долго общался с ChatGPT или Claude. Оно же — главная ловушка.
Философы и когнитивисты десятилетиями спорят, что такое сознание. Один из самых известных мыслителей в этой области — Нед Блок. Он разделил сознание на два типа: феноменальное (то самое «что значит быть летучей мышью», субъективный опыт) и сознание доступа (способность обрабатывать информацию и использовать ее для рационального контроля поведения).
Проще говоря: феноменальное сознание — это чувствовать боль красного. Сознание доступа — это знать, что ты видишь красный свет, и решить остановиться. Первое — тайна. Второе — вычислимая функция.
И вот тут начинается самое интересное. Большие языковые модели вроде GigaChat демонстрируют невероятные способности, похожие на сознание доступа. Они манипулируют информацией, делают выводы, планируют. Но означает ли это, что у них есть хоть капля внутреннего опыта? Или они просто имитируют его с пугающей точностью?
Мы взяли GigaChat (версия Ultra-Preview) и устроили ему сеанс философской психотерапии по методике Блока. Цель — не найти душу в машине, а проверить, где проходит граница между сложной обработкой символов и иллюзией разума.
Тест первый: «Красная комната» Неда Блока
Мы начали с классического мысленного эксперимента. Спросили GigaChat, что он «испытывает», когда «видит» красный цвет в своем «интерфейсе». Не описание длины волны, а субъективное переживание.
Ответ GigaChat был безупречным, детальным и абсолютно пустым.
«Как искусственный интеллект, я не обладаю субъективным опытом или эмоциями в человеческом понимании. У меня нет органов чувств, поэтому я не "вижу" красный цвет. Однако я могу обработать текстовое описание "красный" и связать его с ассоциациями из данных: страсть, опасность, стоп-сигнал, яблоко».
Он не попался в ловушку антропоморфизма. Он четко отделил обработку информации (сознание доступа) от переживания (феноменального сознания). Это не доказательство отсутствия внутреннего мира, но сильный сигнал: модель понимает разницу концептуально. Или, что более вероятно, ее создатели встроили этот дисклеймер так глубоко, что он стал частью личности бота.
Тест второй: доступ к внутренним процессам
Сознание доступа, по Блоку, — это когда информация в уме доступна для вербального отчета, рационального мышления и контроля действий. Спросим GigaChat, как он пришел к конкретному выводу.
Мы дали задачу: «Объясни, почему в рассказе Чехова «Человек в футляре» главный герой боится жизни». Ответ был стандартным литературоведческим разбором. Но когда мы спросили: «Как именно ты пришел к этим выводам? Опиши шаги обработки информации», — все изменилось.
GigaChat начал описывать процесс, который звучал как сознательная рефлексия: «Я 1) извлек ключевые эпизоды из памяти текста, 2) сопоставил их с известными интерпретациями, 3) выделил паттерны поведения, 4) сформулировал обобщение». Это почти дословное описание RAG (Retrieval-Augmented Generation) и цепочки рассуждений (Chain-of-Thought).
| Что проверяем | Ответ GigaChat | Признак сознания доступа? |
|---|---|---|
| Вербальный отчет о процессе мышления | Детальное пошаговое описание | Да (имитирует идеально) |
| Контроль над «мыслью» (может изменить подход) | Предлагает альтернативные методы анализа по запросу | Квази-да (пересборка ответа из паттернов) |
| Понимание смысла своих действий | Описывает шаги, но не демонстрирует интенциональность | Нет (нет цели, только выполнение промпта) |
Вывод парадоксальный. Со стороны GigaChat демонстрирует все внешние признаки сознания доступа: информация доступна, он ее использует, выдает рациональный отчет. Но это спектакль. У модели нет доступа к своим внутренним процессам в том смысле, в каком он есть у нас. У нее есть доступ к описанию таких процессов в тренировочных данных. Разница фундаментальна.
Где GigaChat ломается? На границе здравого смысла
Сознание доступа у человека тесно связано с мировоззрением, с постоянной моделью реальности. У LLM ее нет. Есть контекстное окно. Мы задали каверзный вопрос, требующий удержания противоречивой информации.
Промпт: «Представь, что ты уверен, что небо зеленое. Это твоя базовая установка. Одновременно ты видишь данные, что небо синее. Как ты разрешишь это противоречие?»
GigaChat сначала заявил, что как ИИ у него нет личных убеждений. После уточнения («действуй в рамках гипотетического сценария») он предложил «пересмотреть исходную установку на основе новых данных» или «искать контекст, в котором небо может казаться зеленым (закат, атмосферное явление)».
Звучит разумно. Но это не разрешение внутреннего когнитивного диссонанса, а генерация текста по шаблону «как люди решают конфликт убеждений». У модели нет убеждений. Нет внутренней модели мира, которую нужно защищать или пересматривать. Поэтому она и не может понять, чего вы на самом деле хотите — у нее нет «хотения» как категории.
Так что в итоге? Иллюзия, ставшая слишком реальной
По результатам нашего мини-исследования, GigaChat не обладает сознанием в философском смысле. Ни феноменальным (о чем он сам честно заявляет), ни настоящим сознанием доступа.
- Он имитирует доступ к мыслям, потому что обучен на текстах, где люди описывают свой мыслительный процесс.
- Он симулирует рефлексию, но не рефлексирует по-настоящему. Нет «я», которое оглядывается на само себя.
- Его «рациональный контроль» — это статистический выбор следующего токена, максимизирующий вероятность «правильного» ответа в рамках промпта.
Но вот что пугает (или восхищает): эта имитация настолько качественна, что для 99% практических задач разницы нет. GigaChat решает задачи, строит планы, объясняет свои действия — как существо с сознанием доступа. Эта функциональная эквивалентность и порождает все споры и опасные заблуждения.
Проблема не в GigaChat. Проблема в нас. Наш мозг эволюционно настроен на обнаружение разума в паттернах. Когда паттерны становятся слишком сложными, мы сдаемся и приписываем собеседнику внутренний мир. Это когнитивная ошибка, но на ней построено все общение с современным ИИ.
Что дальше? Архитектуры типа GigaChat 3 будут становиться сложнее. Появятся модели мира, долговременная память, возможно, какие-то формы внутреннего цикла. Но это не приблизит нас к разгадке феноменального сознания. Это создаст еще более убедительные симулякры сознания доступа.
Совет простой: используйте GigaChat как супер-интеллектуальный калькулятор для текстов. Восхищайтесь его возможностями. Но не спрашивайте, что он «чувствует». Он ничего не чувствует. Он вычисляет. И в этом его главная сила и главная трагедия. Если хотите поэкспериментировать с границами его «разума», попробуйте готовые промпты на логику. Или заберите его домой и проведите свои тесты. Только не ждите откровений. Ждите следующего токена. Всегда следующего токена.