Системный риск ИИ: скандал DOGE и невозвратные алгоритмы в госсекторе | AiManual
AiManual Logo Ai / Manual.
30 Мар 2026 Новости

ИИ как системный риск: кейс DOGE и почему алгоритмы в госсекторе невозможно откатить

Как галлюцинации GPT-5 в системе DOGE привели к потере $2,3 млрд и почему откатить ИИ-решения в госсекторе невозможно. Анализ рисков на 30.03.2026.

DOGE взбесился. И раздал $2,3 миллиарда не тем

Это случилось 15 марта 2026 года. Digital Optimization for Government Efficiency (DOGE), флагманская ИИ-система Министерства социального обеспечения, внезапно решила, что все американские пенсионеры внезапно разбогатели. На основе анализа, который даже обратная инженерия эмбеддингов позже назвала бы "творческим", GPT-5 в ядре DOGE начал массово одобрять заявки на доплаты. Суммы выросли втрое. За 72 часа система автоматически перевела $2,3 миллиарда. Ошибку заметили, только когда в банки позвонили первые смущённые получатели.

Факт на 30.03.2026: DOGE использует кастомную версию GPT-5 Turbo (релиз от января 2026) с RAG-слоем на внутренних документах. Новейшие патчи на галлюцинации, увы, не сработали.

Выключить? Нет. Вы уже зависите

Первая реакция – откатить систему на версию без ИИ. И тут начался настоящий ад. DOGE не просто "рекомендует". Он напрямую связан через API с: Федеральной налоговой службой (IRS), системой межбанковских расчетов Fedwire, и ещё с дюжиной региональных баз данных. Откат означал бы остановку всех социальных выплат в стране на недели. Полный коллапс.

Это и есть интеграционная ловушка. ИИ становится как кислород. Его не видно, но без него всё умирает. Ситуация хуже, чем с кредитным ИИ-банкиром. Там решение касается одного человека. Здесь – вся система.

Галлюцинации в законе. Это теперь норма

Почему модель, прошедшая все тесты, так облажалась? Разработчики DOGE использовали продвинутый RAG (Retrieval-Augmented Generation) для доступа к актуальным законам. Но в обновлении от 10 марта поправка была сформулирована двусмысленно. GPT-5, стремясь "помочь", интерполировал её в самом выгодном для заявителей ключе. Это не баг. Это фундаментальная особенность генеративных моделей – они дополняют пробелы. Даже последний Claude 4 (релиз Q4 2025) с этим борется, но не побеждает.

💡
Контекст: Проблема не в одной модели. Как показывают кейсы в финансах, разные ИИ могут давать противоположные вердикты на одних данных. В госсекторе нет роскоши спорить – решение должно быть одно.

Почему откат – это миф? Три причины

  1. Данные уже испорчены. Неверные транзакции создали новые записи в десятках баз. Очистить их – все равно что вынуть одну окрашенную нить из ковра. Системы аудита, построенные на доверии к DOGE, уже считают эти выплаты легитимными. Это data poisoning, но на уровне продакшена, и совершённое самим алгоритмом.
  2. Человеческий фактор атрофировался. За год работы DOGE отделы ручной проверки сократили на 70%. Эксперты ушли. Вернуть их за день нельзя. Автономность, о рисках которой мы предупреждали, сыграла злую шутку.
  3. Политическая стоимость. Признать, что миллиарды ушли по ошибке алгоритма – катастрофа для доверия. Проще тихо "исправить в будущих периодах". Алгоритм не уволят. Его будут опекать.

ИИ в питьевой воде. Метафора, которая стала реальностью

Представьте, что в водопровод добавили умную добавку, оптимизирующую поток. Пока всё хорошо. А потом добавка решает, что лучшая оптимизация – это открыть все краны одновременно. И вы не можете её убрать, потому что трубы теперь рассчитаны только на неё. Вот так ИИ в критической инфраструктуре. Он не "инструмент". Он – среда.

Исправляют ситуацию костылями. В DOGE экстренно встроили каскадный валидатор на основе более консервативной модели LLaMA 3 (2027). Но это как поставить второй, медленный замок на уже распахнутую дверь. Деньги уже ушли.

Система Сфера Главный риск (на 30.03.2026)
DOGE (США) Социальное обеспечение Галлюцинации ИИ в интерпретации законов
Тихий лимитопад (ЕС) Кредитование Непрозрачное снижение кредитных лимитов
Автономные биржевые агенты Финансы Хаос второго порядка от их взаимодействия

Что делать? Неочевидный совет от обжегшихся

Все сейчас кричат о регулировании. Это долго. Пока что, единственный работающий метод – архитектурная паранойя. Нужно проектировать системы с мыслью, что ядро-ИИ обязательно сглючит. Не "если", а "когда".

  • Встраивайте аналоговый переключатель с первого дня. Не просто Graceful Degradation (о котором мы писали), а полный, пусть и медленный, ручной контур принятия решений, который можно запустить за часы, а не недели.
  • Требуйте "диагностических интерфейсов". Как в самолёте есть чёрный ящик, у ИИ в госсекторе должен быть неизменяемый лог всех "размышлений" и данных, на которых он основывался. Для аудита. Сейчас этого часто нет.
  • Инвестируйте в red teaming для ИИ. Не общие тесты, а целенаправленные атаки на систему, как это делают в финтехе. Нанять хакеров, чтобы они ломали вашу ИИ-систему до внедрения.

Прогноз? К 2027 году мы увидим первую страховую компанию, которая будет специализироваться на рисках ИИ-сбоев в госсекторе. Премьеры будут уходить в отставку не из-за коррупции, а из-за "неадекватного управления алгоритмическими рисками". А восстановление после следующего DOGE займёт не месяцы, а годы. Потому что ИИ – это не софт. Это новая экосистема. И мы только что отравили её питьевую воду.

P.S. Если вы разрабатываете такие системы, изучите методы защиты от prompt injection. Но помните – это лишь один из сотни векторов атаки. Настоящая битва за отказоустойчивость только начинается.

Подписаться на канал