Проблема: ИИ, который всё понимает, но ничего не делает
Вы когда-нибудь сталкивались с ситуацией, когда ChatGPT или Claude прекрасно объясняют, как решить задачу, но при попытке сделать это самостоятельно сходят с дистанции? Модель демонстрирует глубокое понимание контекста, вашей конечной цели, но её ответы остаются пассивными, описательными, лишёнными той самой проактивности, которую мы ожидаем от интеллекта. Это не баг конкретной модели — это фундаментальная особенность архитектуры современных Large Language Models (LLM).
Ключевой парадокс: LLM могут рассуждать о цели с человеческой глубиной, но их архитектура не содержит механизма для её активного достижения. Они — экспертные комментаторы, а не исполнители.
Архитектурный корень проблемы: Отсутствие «функции полезности»
Чтобы понять, почему так происходит, нужно заглянуть под капот. Современные LLM, такие как GPT-4, Gemini или Claude — это авторегрессионные модели, обученные на задаче предсказания следующего токена. Их цель во время обучения — максимизировать вероятность появления «правильного» следующего слова в огромном корпусе текстов.
Что на самом деле оптимизирует LLM?
- Локальная когерентность: Сделать так, чтобы каждое следующее слово логично вытекало из предыдущих.
- Стилистическое соответствие: Подражать тону, структуре и жанру текста в контексте.
- Фактическая точность (в идеале): Генерировать утверждения, соответствующие данным из обучающего корпуса.
Обратите внимание: в этом списке нет пункта «достичь цели пользователя». Модель не имеет встроенной «функции полезности» (utility function), которая оценивала бы успешность ответа по критерию «насколько он продвинул пользователя к его цели». Она оптимизирована для создания правдоподобного текста, а не для решения проблем. Именно поэтому в сложных многошаговых задачах, таких как автономное кодинг, модели часто теряют нить.
Контекстная консистентность vs. Целевая консистентность
LLM блестяще справляются с поддержанием контекстной консистентности (consistency within context). Если в начале диалога вы договорились, что главного героя зовут Джон, модель будет использовать это имя на протяжении всей истории.
Однако они терпят фиаско в поддержании целевой консистентности (goal consistency). Если ваша цель — написать безопасный код, модель может понять это требование, обсудить уязвимости, но затем сгенерировать код с SQL-инъекцией, потому что этот код стилистически и синтаксически соответствует примеру из её датасета. Она не проводит постоянную проверку: «Каждый мой выходной токен приближает ли пользователя к цели X?». О важности такой проверки в контексте безопасности мы подробно писали в гиде по защите от промпт-инъекций.
| Тип консистентности | Что LLM делают хорошо | Где LLM дают сбой | Архитектурная причина |
|---|---|---|---|
| Контекстная | Следить за темой, именами, стилем в рамках одного ответа/сессии. | В очень длинных контекстах (десятки тысяч токенов). | Ограничения механизмов внимания (attention), "забывание" раннего контекста. |
| Целевая | Обсуждать цель, декомпозировать её на шаги. | Активно и последовательно действовать для её достижения. | Отсутствие встроенной функции полезности и механизма планирования. |
Решение: От языковых моделей к архитектурам агентов
Сама по себе LLM — это мощный, но ограниченный движок рассуждений. Решение проблемы лежит не в изменении её внутренней архитектуры (что невероятно сложно), а в построении внешней архитектуры агента, где LLM выступает в роли ядра планирования и рассуждений.
1 Добавление цикла «Размышление-Действие-Наблюдение» (ReAct)
Вместо одного длинного ответа агент работает в цикле:
# Упрощённая схема цикла ReAct
while not goal_achieved:
# Размышление: LLM анализирует текущее состояние и цель
thought = llm("Цель: {goal}. Текущее состояние: {state}. Что делать дальше?")
# Действие: Выполняет конкретный шаг (вызов API, запуск кода и т.д.)
action, params = parse_thought(thought)
result = execute_action(action, params)
# Наблюдение: Анализирует результат
state = llm("Результат действия: {result}. Обнови описание состояния.")
Здесь LLM используется для оценки прогресса на каждом шаге, что имитирует целевую консистентность. Именно такой подход лежит в основе успешных агентных workflow, как в кейсе Suzano.
2 Внешняя функция проверки (Critic / Verifier)
Отдельная, возможно более компактная модель или набор правил, постоянно проверяет выходы основной LLM на соответствие изначальной цели, безопасности, стилю. Это внешний "руль", компенсирующий отсутствие внутренней функции полезности.
3 Интеграция с детерминированными системами
Для задач, где важна 100% точность (вычисления, работа с API), LLM должна лишь генерировать план или запрос, а исполнение делегируется традиционным программам. Это снижает риск "галлюцинаций" в критических точках. Такой гибридный подход особенно важен в чувствительных областях, например, при создании оффлайн-ИИ для людей с когнитивными нарушениями.
Это изъян или фича? Двойственная природа LLM
Строго говоря, это не изъян, а прямое следствие архитектурного выбора. LLM создавались как модели языка, а не как модели рационального агента. Их «пассивность» — это плата за универсальность и способность генерировать креативный, разнообразный контент.
Фича: Именно отсутствие жёсткой привязки к одной цели позволяет одной и той же модели писать стихи, отлаживать код, сочинять бизнес-план и симулировать диалог Сократа. Жёсткая встроенная функция полезности сделала бы её узкоспециализированным инструментом.
Однако для практического применения в автономных системах это становится критическим архитектурным изъяном, который необходимо компенсировать на системном уровне. Будущее — за гибридными системами, где способность LLM к пониманию и рассуждению сочетается с целеустремлённостью классического программного обеспечения и надёжностью внешних проверок.
FAQ: Частые вопросы о целевой ориентации LLM
❓ Fine-tuning не может решить эту проблему?
Fine-tuning на задачах, требующих последовательных действий (например, прохождение квестов в текстовой игре), может улучшить результаты, но не решить проблему фундаментально. Модель научится лучше имитировать последовательность шагов в обучающих данных, но у неё по-прежнему не будет внутреннего механизма для оценки успеха в новой, незнакомой ситуации. Это обучение паттернам, а не внедрение функции полезности.
❓ Значит ли это, что AGI на основе чистых LLM невозможен?
Текущая архитектура LLM — недостаточна для AGI (искусственного общего интеллекта) в его полном смысле, который подразумевает автономное целеполагание и достижение целей в изменяющейся среде. Однако LLM могут стать критически важным компонентом ("мозгом") будущей AGI-архитектуры, которой потребуются дополнительные модули: память, планирование, целеполагание и взаимодействие с миром.
❓ Как мне сегодня проверить, справится ли LLM с моей целеориентированной задачей?
Не спрашивайте модель: «Можешь ли ты сделать X?». Она почти всегда ответит «да». Вместо этого:
- Дайте ей конкретную, многошаговую инструкцию с чёткими критериями успеха.
- Попросите составить пошаговый план перед исполнением.
- Внедрите промежуточные проверки: «После шага 3, проверь, что условие Y выполнено».
- Протестируйте в изолированной среде, например, в специально развёрнутой ML-песочнице, прежде чем запускать в продакшн.
Заключение: Эволюция от пассивного генератора к активному агенту
Феномен «понимания без следования цели» — это не ошибка разработчиков, а отражение текущей стадии развития технологии. LLM — это невероятно мощные семантические процессоры, но им не хватает агентности. Преодоление этого разрыва — главная инженерная задача ближайших лет. Решение лежит не в ожидании следующей GPT-5, а в грамотном системном дизайне, где LLM становится ядром более сложной архитектуры, включающей планирование, исполнение и обратную связь. Будущее принадлежит не голым моделям, а продуманным агентным системам, которые превращают понимание в целенаправленное действие.