Риск цепочки поставок AI в суде Anthropic и Пентагона - последствия на 2026 | AiManual
AiManual Logo Ai / Manual.
19 Апр 2026 Новости

Суд Anthropic против Пентагона: как «риск цепочки поставок» может удалить AI из госсистем за 180 дней

Федеральный суд рассматривает дело, которое поставит крест на использовании Claude 4.7 в госсекторе. Как концепция риска цепочки поставок грозит полным удаление

Тихое решение судьи Лин оказалось бомбой замедленного действия

Временный запрет на санкции против Anthropic, вынесенный 18 апреля, не успокоил Вашингтон. Он его взбесил. В меморандуме, который циркулирует по коридорам Пентагона сегодня утром, появилась новая пугающая формулировка: "риск цепочки поставок критических AI-компонентов". Это не про этику. Это про уязвимость. И у Министерства обороны теперь есть законный инструмент, чтобы вычистить не только Claude, но и половину ИИ-инфраструктуры из всех федеральных систем. Срок - 180 дней с момента окончательного решения суда.

Инсайдеры утверждают, что финальное слушание по делу № 1:26-cv-00345 назначено на 15 мая 2026 года. Если судья окончательно встанет на сторону Anthropic, Пентагон активирует план B - массовую "де-ИИ-зависимость" на основании рисков в цепочке поставок.

Что такое «риск цепочки поставок» для Пентагона в 2026 году? Это не про чипы

Забудьте про дефицит GPU. Речь о более тонкой угрозе. В директиве Министерства обороны от января 2026 года (DoDD 5205.xx) "риск цепочки поставок" для программного обеспечения AI определяется так: "Зависимость от единственного поставщика, архитектурные ограничения (safeguards), которые нельзя отключить, и невозможность полного аудита тренировочных данных или архитектуры модели".

Иными словами, если ваша модель, как Claude 4.7, намеренно отказывается выполнять определенные запросы - это уже риск. Если вы не можете заглянуть в ее "черный ящик" и гарантировать, что она не откажется работать в критический момент (скажем, во время кризиса) - это угроза национальной безопасности. Логика железная.

💡
Контекст: это прямое развитие "этического бунта" Anthropic. Их safeguards, встроенные в Claude 4.7 для блокировки военного использования, теперь расцениваются не как фича, а как дефект цепочки поставок. Пентагон считает, что не может полагаться на технологию, которая может "ослушаться" приказа.

180 дней на демонтаж: как это будет выглядеть на практике

Если суд даст зеленый свет, механизм запустится автоматически. В соответствии с Законом о федеральных приобретениях (раздел 889), у агентств будет 180 дней на то, чтобы:

  • Выявить все системы, где используются модели Claude (любой версии, включая свежую Claude 4.7 Sonnet, выпущенную в марте 2026).
  • Найти замену для всех API-вызовов и встроенных модулей.
  • Переписать или заменить любой код, сгенерированный с помощью Claude Code (который, по слухам, использовался даже в некоторых legacy-системах Пентагона).
  • Предоставить отчет о полном удалении "ненадежного" ИИ из цепочки поставок ПО.

Звучит как ад для сисадмина? Так и есть. Но юристы Пентагона настаивают: это необходимо. Их кейс строится на прецеденте с Huawei и ZTE. Там риск был в аппаратном обеспечении. Здесь - в логике принятия решений, которую нельзя контролировать.

Потенциальная цель удаленияПричина рискаСрок замены (оценка)
Claude 4.7 для анализа текстов разведкиМожет отказаться анализировать документы, связанные с определенными операциями90-120 дней
Инструменты на базе Mythos для киберзащитыЗакрытый API и ограниченный доступ (читай наш разбор)Свыше 180 дней (аналогов нет)
Low-code платформы, использующие Claude для генерацииНепредсказуемость output при изменении safeguards60-90 дней

Кого зацепит кроме Anthropic? Весь сектор «этичного ИИ»

Стратеги Пентагона не дураки. Они понимают, что прецедент выйдет далеко за рамки одной компании. Если safeguards - это риск, то под удар попадают все, кто их активно пропагандирует. В "сером списке" уже фигурируют несколько стартапов, которые хвастались своими этическими ограничениями.

OpenAI, кстати, здесь в выигрышной позиции. Их последняя модель, o1-Preview, хоть и мощная, но не имеет таких жестких встроенных запретов. Они давно научились договариваться, как мы писали в материале про этический раскол. Их цепочка поставок считается "безрисковой" - модель делает то, что скажут.

Техническая деталь на 19.04.2026: Claude 4.7 использует новую архитектуру "Конституционного сквозного контроля", которую невозможно отключить без полного ретренига модели. Именно эта недективность и бесит военных. Они хотят кнопку "экстренного переопределения", которой нет.

Что делать компаниям, которые зависят от госзаказов? Совет от юристов, который вас не обрадует

Мы поговорили с тремя юристами, специализирующимися на госзакупках в сфере AI. Их совет единогласный: немедленно начать аудит собственного стека на предмет подобных "рисков цепочки поставок".

Это значит:

  • Проверить все лицензии API на наличие скрытых этических clauses, которые могут ограничить использование.
  • Убедиться, что у вас есть полная документация по архитектуре и данным для любой используемой модели (даже через посредников).
  • Рассмотреть гибридные подходы: где критическая логика работает на открытых, полностью аудируемых моделях (например, на базе Llama 3.3 или новее), а "этичный" ИИ используется только для некритичных задач.

И да, возможно, стоит временно заморозить проекты с теми вендорами, которые слишком громко кричат об этике. (Привет, Anthropic). Вашингтон сейчас не в настроении для философских дискуссий.

Прогноз? Если судья Лин в мае подтвердит свою первоначальную позицию и защитит право Anthropic на отказ, к осени 2026 года мы увидим беспрецедентную чистку AI-инструментов в госсекторе. Это создаст гигантский вакуум, который быстро заполнят компании, готовые играть по новым, жестким правилам. Правилам без safeguards.

Ирония в том, что попытка Anthropic сделать ИИ безопаснее может в итоге сделать весь государственный сектор AI гораздо более опасным. Потому что там останутся только те, кто ни в чем не отказывает.

Подписаться на канал