Исследование Microsoft: 25% документов портятся LLM при делегировании | AiManual
AiManual Logo Ai / Manual.
05 Май 2026 Новости

LLM портят каждый четвёртый документ при делегировании: Microsoft бьёт тревогу

Агенты на базе LLM в 25% случаев повреждают документы. Как избежать ошибок? Разбор исследования DELEGATE-52 и методы защиты.

Вы доверяете нейросети переписать договор, поправить техзадание или переформатировать отчёт. Зря. По данным свежего исследования Microsoft, большие языковые модели при делегировании задач на редактирование документов портят каждый четвёртый файл. Цифра DELEGATE-52 — 25% повреждений. И это не гипотетические риски, а реальная боль инженеров, которые уже обожглись.

Суть в том, что когда LLM выступает агентом, который сам вызывает инструменты (например, replace_text или insert_paragraph), модель начинает импровизировать. Она может случайно удалить важный абзац, написать бессмыслицу поверх существующего текста или — мой любимый кейс — вставить туда же промпт из системного сообщения. Звучит абсурдно, но Microsoft задокументировала ровно такое.

Основной вывод DELEGATE-52: агентные пайплайны без валидации выхода — это русская рулетка с вашими документами. Каждый четвёртый — мина замедленного действия.

Почему это происходит? Три причины

Microsoft разобрала 3500 логов работы агентов на базе GPT-4o (версия ранней осени 2025) и Claude 3 Opus. Ошибки делегирования делятся на три класса:

  1. Коллизия инструментов — модель вызывает cut и paste в неправильном порядке. Теряется буфер обмена, и кусок текста просто исчезает.
  2. Галлюцинации координат — LLM определяет строку 42 как «пункт 3.1», хотя на самом деле это примечание в сноске.
  3. Инерция контекста — модель «залипает» на предыдущем запросе и вставляет в документ старый ответ вместо нового.

Особенно смешно (и страшно) выглядит третий пункт. Представьте: вы просите LLM заменить «ООО Ромашка» на «ООО Лютик» в договоре, а она в ответ приписывает туда рецепт пирога, который вы обсуждали в начале сессии. В датасете DELEGATE-52 таких кейсов — 11%.

Кто в группе риска?

Под раздачу попадают прежде всего юристы, редакторы и все, кто гоняет документы через AI-агентов. Если вы используете открытые LLM для анализа контрактов — вы уже сталкивались с этой проблемой, возможно, даже не заметили.

Но хуже всего тем, кто внедряет агентные рабочие процессы (AI agents). Когда LLM сама решает, какой инструмент вызвать и когда остановиться, вероятность порчи документа взлетает до 40%. Microsoft проверила это на трёх сценариях: переформатирование вики-страниц, рефакторинг кода документации и массовое редактирование юридических шаблонов. Во всех трёх классические пайплайны без обратной связи провалились.

💡
Хорошая новость: у проблемы есть решение. Один из самых эффективных подходов — двухслойная валидация, когда специальный детектор сверяет выход LLM с эталонным скелетом документа. Подробнее про такую архитектуру мы писали в отдельном материале.

Как Microsoft предлагает лечить

Исследователи выпустили не просто отчёт, а готовый рецепт. Набор правил, который они назвали Delegation Filter — фильтр, отсекающий опасные вызовы. Суть простая: перед тем как исполнить команду агента, фильтр проверяет её на наличие паттернов, приводящих к порче документа. Если команда подозрительна — она отклоняется, и модель получает сообщение об ошибке без права ретрая.

Эффект: частота повреждений падает с 25% до 4%. Цифра всё ещё не нулевая, но уже приемлемая для продакшна. Microsoft рекомендует внедрять такой фильтр до того, как код или текст отправятся в репозиторий. Кстати, похожий подход — чек-лист инженера, когда НЕ стоит вызывать LLM — мы уже разбирали на примере продакшн-пайплайнов.

Дополнительно Microsoft советует:

  • Ограничить количество последовательных вызовов инструментов (не более 5).
  • Сохранять снапшоты документа до и после каждого изменения.
  • Использовать инструмент «difference check» — сравнивать выход с предыдущей версией.

А что с open-source?

Эксперименты с открытой моделью Raft (осень 2025-го) показали ещё более грустную картину: повреждения в 37% случаев. Причина — меньшее количество обучающих примеров на работу с инструментами. В Microsoft отмечают, что лучше всего справился Claude 3 Opus (18% сбоев), а замыкает список Qwen2.5-72B с 42%.

Если вы используете open-source модели для обработки документов — обязательно внедряйте семантическую валидацию. Например, пайплайн с ETL и итеративной обработкой, который мы описывали в статье про семантические пайплайны, может снизить процент ошибок за счёт повторных проходов.

Ещё один неочевидный риск: даже если LLM не портит документ сегодня, она может начать это делать при смене версии модели. Microsoft зафиксировала, что обновление с GPT-4o (весна 2025) на GPT-4o (лето 2025) изменило поведение в 12% случаев — и не в лучшую сторону.

Три вывода, которые стоит запомнить

Если вы отвечаете за AI-пайплайны в компании — эти цифры должны стать вашей настольной памяткой.

  1. Не доверяйте LLM финальную правку. Всегда делайте валидацию — либо автоматическую (diff-сравнение), либо человеческую.
  2. Ставьте фильтры. Delegation Filter от Microsoft или ваш собственный набор правил — не роскошь, а необходимость.
  3. Тестируйте каждое обновление модели. Поведение LLM может меняться без предупреждения, и ваш пайплайн сломается.

И последнее. Исследование Microsoft — не повод отказываться от AI-агентов. Это повод строить вокруг них защитные механизмы. Потому что один испорченный документ — это потеря времени. А 25 испорченных из сотни — это потеря денег и репутации.

Источник: Microsoft Research, датасет DELEGATE-52, 2026.

Подписаться на канал