Тихое решение судьи Лин оказалось бомбой замедленного действия
Временный запрет на санкции против Anthropic, вынесенный 18 апреля, не успокоил Вашингтон. Он его взбесил. В меморандуме, который циркулирует по коридорам Пентагона сегодня утром, появилась новая пугающая формулировка: "риск цепочки поставок критических AI-компонентов". Это не про этику. Это про уязвимость. И у Министерства обороны теперь есть законный инструмент, чтобы вычистить не только Claude, но и половину ИИ-инфраструктуры из всех федеральных систем. Срок - 180 дней с момента окончательного решения суда.
Инсайдеры утверждают, что финальное слушание по делу № 1:26-cv-00345 назначено на 15 мая 2026 года. Если судья окончательно встанет на сторону Anthropic, Пентагон активирует план B - массовую "де-ИИ-зависимость" на основании рисков в цепочке поставок.
Что такое «риск цепочки поставок» для Пентагона в 2026 году? Это не про чипы
Забудьте про дефицит GPU. Речь о более тонкой угрозе. В директиве Министерства обороны от января 2026 года (DoDD 5205.xx) "риск цепочки поставок" для программного обеспечения AI определяется так: "Зависимость от единственного поставщика, архитектурные ограничения (safeguards), которые нельзя отключить, и невозможность полного аудита тренировочных данных или архитектуры модели".
Иными словами, если ваша модель, как Claude 4.7, намеренно отказывается выполнять определенные запросы - это уже риск. Если вы не можете заглянуть в ее "черный ящик" и гарантировать, что она не откажется работать в критический момент (скажем, во время кризиса) - это угроза национальной безопасности. Логика железная.
180 дней на демонтаж: как это будет выглядеть на практике
Если суд даст зеленый свет, механизм запустится автоматически. В соответствии с Законом о федеральных приобретениях (раздел 889), у агентств будет 180 дней на то, чтобы:
- Выявить все системы, где используются модели Claude (любой версии, включая свежую Claude 4.7 Sonnet, выпущенную в марте 2026).
- Найти замену для всех API-вызовов и встроенных модулей.
- Переписать или заменить любой код, сгенерированный с помощью Claude Code (который, по слухам, использовался даже в некоторых legacy-системах Пентагона).
- Предоставить отчет о полном удалении "ненадежного" ИИ из цепочки поставок ПО.
Звучит как ад для сисадмина? Так и есть. Но юристы Пентагона настаивают: это необходимо. Их кейс строится на прецеденте с Huawei и ZTE. Там риск был в аппаратном обеспечении. Здесь - в логике принятия решений, которую нельзя контролировать.
| Потенциальная цель удаления | Причина риска | Срок замены (оценка) |
|---|---|---|
| Claude 4.7 для анализа текстов разведки | Может отказаться анализировать документы, связанные с определенными операциями | 90-120 дней |
| Инструменты на базе Mythos для киберзащиты | Закрытый API и ограниченный доступ (читай наш разбор) | Свыше 180 дней (аналогов нет) |
| Low-code платформы, использующие Claude для генерации | Непредсказуемость output при изменении safeguards | 60-90 дней |
Кого зацепит кроме Anthropic? Весь сектор «этичного ИИ»
Стратеги Пентагона не дураки. Они понимают, что прецедент выйдет далеко за рамки одной компании. Если safeguards - это риск, то под удар попадают все, кто их активно пропагандирует. В "сером списке" уже фигурируют несколько стартапов, которые хвастались своими этическими ограничениями.
OpenAI, кстати, здесь в выигрышной позиции. Их последняя модель, o1-Preview, хоть и мощная, но не имеет таких жестких встроенных запретов. Они давно научились договариваться, как мы писали в материале про этический раскол. Их цепочка поставок считается "безрисковой" - модель делает то, что скажут.
Техническая деталь на 19.04.2026: Claude 4.7 использует новую архитектуру "Конституционного сквозного контроля", которую невозможно отключить без полного ретренига модели. Именно эта недективность и бесит военных. Они хотят кнопку "экстренного переопределения", которой нет.
Что делать компаниям, которые зависят от госзаказов? Совет от юристов, который вас не обрадует
Мы поговорили с тремя юристами, специализирующимися на госзакупках в сфере AI. Их совет единогласный: немедленно начать аудит собственного стека на предмет подобных "рисков цепочки поставок".
Это значит:
- Проверить все лицензии API на наличие скрытых этических clauses, которые могут ограничить использование.
- Убедиться, что у вас есть полная документация по архитектуре и данным для любой используемой модели (даже через посредников).
- Рассмотреть гибридные подходы: где критическая логика работает на открытых, полностью аудируемых моделях (например, на базе Llama 3.3 или новее), а "этичный" ИИ используется только для некритичных задач.
И да, возможно, стоит временно заморозить проекты с теми вендорами, которые слишком громко кричат об этике. (Привет, Anthropic). Вашингтон сейчас не в настроении для философских дискуссий.
Прогноз? Если судья Лин в мае подтвердит свою первоначальную позицию и защитит право Anthropic на отказ, к осени 2026 года мы увидим беспрецедентную чистку AI-инструментов в госсекторе. Это создаст гигантский вакуум, который быстро заполнят компании, готовые играть по новым, жестким правилам. Правилам без safeguards.
Ирония в том, что попытка Anthropic сделать ИИ безопаснее может в итоге сделать весь государственный сектор AI гораздо более опасным. Потому что там останутся только те, кто ни в чем не отказывает.