Запрет Трампа на Claude и контракт OpenAI с Пентагоном | AiManual
AiManual Logo Ai / Manual.
02 Мар 2026 Новости

Запрет Трампа на Claude и контракт OpenAI с Пентагоном: как политика меняет рынок государственных заказов на ИИ

Политика решает все: как запрет Трампа на Anthropic и многомиллиардный контракт OpenAI перекраивают рынок госзаказов на ИИ. Актуально на 2 марта 2026.

Всего четыре дня. Именно столько прошло с момента, когда администрация Трампа официально запретила федеральным агентствам использовать Claude, и до анонса многомиллиардного контракта OpenAI с Пентагоном. Случайность? В Вашингтоне не верят в совпадения.

Этический курок: как safeguards Claude взорвали рынок

Anthropic уперлась. Когда Пентагон запросил доступ к Claude 4.7 для анализа спутниковых снимков в реальном времени и прототипирования кибероружия, компания сказала «нет». Не «мы подумаем», а жесткий, принципиальный отказ. Встроенные этические ограничения модели, те самые safeguards, которые нельзя обойти даже через API, сработали как политический детонатор.

Указ от 27 февраля 2026 года (в силу с 00:01 28 февраля) предписывает всем федеральным органам расторгнуть контракты с Anthropic в течение 30 дней. Первый в истории случай целевого запрета поставщика ИИ по этическим мотивам. Подробности – в нашем материале про войну Трампа против Anthropic.

В Пентагоне это назвали «неприемлемым риском для цепочки поставок». Перевод с бюрократического: мы не можем зависеть от ИИ, который в критический момент зачитает лекцию о международном праве вместо выполнения приказа. Особенно когда на пороге уже стоит конкурент с открытыми объятиями.

OpenAI ловит волну: контракт на $2.1 млрд и тихая победа

Пока Anthropic хоронила свои госзаказы, OpenAI подписывала с Министерством обороны контракт на разработку «следующего поколения аналитических инструментов для национальной безопасности». Сумма – $2.1 млрд. Срок – пять лет. Детали засекречены, но по словам инсайдеров, речь идет о системах киберзащиты, анализе больших данных разведки и, возможно, автономных платформах.

Компания Позиция по военным контрактам Статус на 2.03.2026
Anthropic (Claude 4.7) Запрет на использование в разработке оружия и массовой слежке Внесена в список угроз нацбезопасности
OpenAI (o1, GPT-5) Ограниченное сотрудничество, гибкие политики Активный рост госзаказов
xAI (Grok 3) Готовность к сотрудничеству без этических ограничений Под давлением правозащитников

Ирония в том, что еще в 2025 году OpenAI публично сомневалась в работе на оборонку. Но с приходом нового коммерческого CEO и под давлением инвесторов, жаждущих роста, позиция смягчилась. Теперь компания – главный бенефициар политического скандала, который сама же и наблюдала со стороны. Подробнее о стратегическом развороте OpenAI читайте в анализе их корпоративной стратегии.

Новые правила игры: деньги против принципов

Рынок госзаказов на ИИ, который в 2025 году оценивался в $15 млрд, теперь живет по новым законам. Этические соображения стали не конкурентным преимуществом, а политическим риском. Если ваша модель отказывается помогать в разработке дрона-камикадзе – вы вне игры.

  • Быстрая сертификация. Контракты теперь получают компании, готовые предоставить «беспрепятственный доступ» к своим моделям. Никаких философских дискуссий.
  • Лоббирование или провал. Бюджет на лоббирование в Вашингтоне у OpenAI в 2026 году вырос на 300%. Anthropic тратила на этику – и проиграла. Совпадение?
  • Ренессанс локальных моделей. Страх зависимости от «капризного» ИИ заставил АНБ и ЦРУ вкладываться в собственные разработки. Llama 3.2 и ее форки теперь разворачиваются в закрытых дата-центрах. Для таких проектов нужны инструменты – возможно, вам пригодится Local AI Toolkit (партнерская ссылка).
💡
Для разработчиков, которые хотят оставаться вне политических бурь, мульти-клаудные шлюзы вроде AI Gateway (партнерская ссылка) позволяют быстро переключаться между поставщиками моделей, минимизируя риски запретов.

Результат? Формируется двухуровневый рынок. Наверху – OpenAI и подобные ей «прагматики», сгребающие многомиллиардные контракты. Внизу – «идеалисты» вроде Anthropic, вытесненные в академию и корпоративный сектор, где этика все еще в цене. Подробнее о последствиях для локальных моделей – в нашем материале.

Что дальше? Прогноз на оставшийся 2026 год

Политический маятник качнулся в сторону силы. Но надолго ли? Вот что вероятно произойдет:

  1. Ответный ход ЕС. Брюссель уже готовит «черный список» ИИ-компаний, слишком активно сотрудничающих с военными. OpenAI может попасть под санкции, что ударит по ее европейскому бизнесу.
  2. Утечка мозгов из Anthropic. Часть инженеров, недовольных потерей госзаказов, уже зондирует почву у конкурентов. Ключевые специалисты по безопасности могут уйти в startups.
  3. Новый виток регулирования. Сенаторы-демократы готовят законопроект о «праве на этический ИИ» для государственных органов. Если пройдет – история получит неожиданный поворот.

Итог прост: если вы стартап в сфере ИИ и мечтаете о контракте с Пентагоном – выбрасывайте safeguards из дорожной карты. По крайней мере, до следующих выборов. А пока наблюдайте, как принципы, провозглашенные главным достижением индустрии, становятся ее главным политическим грузом. Как заметил один чиновник на условиях анонимности: «Война – это не место для философии. Особенно когда конкуренты уже зарядили пушки вашим же кодом».

Подписаться на канал