Всего четыре дня. Именно столько прошло с момента, когда администрация Трампа официально запретила федеральным агентствам использовать Claude, и до анонса многомиллиардного контракта OpenAI с Пентагоном. Случайность? В Вашингтоне не верят в совпадения.
Этический курок: как safeguards Claude взорвали рынок
Anthropic уперлась. Когда Пентагон запросил доступ к Claude 4.7 для анализа спутниковых снимков в реальном времени и прототипирования кибероружия, компания сказала «нет». Не «мы подумаем», а жесткий, принципиальный отказ. Встроенные этические ограничения модели, те самые safeguards, которые нельзя обойти даже через API, сработали как политический детонатор.
Указ от 27 февраля 2026 года (в силу с 00:01 28 февраля) предписывает всем федеральным органам расторгнуть контракты с Anthropic в течение 30 дней. Первый в истории случай целевого запрета поставщика ИИ по этическим мотивам. Подробности – в нашем материале про войну Трампа против Anthropic.
В Пентагоне это назвали «неприемлемым риском для цепочки поставок». Перевод с бюрократического: мы не можем зависеть от ИИ, который в критический момент зачитает лекцию о международном праве вместо выполнения приказа. Особенно когда на пороге уже стоит конкурент с открытыми объятиями.
OpenAI ловит волну: контракт на $2.1 млрд и тихая победа
Пока Anthropic хоронила свои госзаказы, OpenAI подписывала с Министерством обороны контракт на разработку «следующего поколения аналитических инструментов для национальной безопасности». Сумма – $2.1 млрд. Срок – пять лет. Детали засекречены, но по словам инсайдеров, речь идет о системах киберзащиты, анализе больших данных разведки и, возможно, автономных платформах.
| Компания | Позиция по военным контрактам | Статус на 2.03.2026 |
|---|---|---|
| Anthropic (Claude 4.7) | Запрет на использование в разработке оружия и массовой слежке | Внесена в список угроз нацбезопасности |
| OpenAI (o1, GPT-5) | Ограниченное сотрудничество, гибкие политики | Активный рост госзаказов |
| xAI (Grok 3) | Готовность к сотрудничеству без этических ограничений | Под давлением правозащитников |
Ирония в том, что еще в 2025 году OpenAI публично сомневалась в работе на оборонку. Но с приходом нового коммерческого CEO и под давлением инвесторов, жаждущих роста, позиция смягчилась. Теперь компания – главный бенефициар политического скандала, который сама же и наблюдала со стороны. Подробнее о стратегическом развороте OpenAI читайте в анализе их корпоративной стратегии.
Новые правила игры: деньги против принципов
Рынок госзаказов на ИИ, который в 2025 году оценивался в $15 млрд, теперь живет по новым законам. Этические соображения стали не конкурентным преимуществом, а политическим риском. Если ваша модель отказывается помогать в разработке дрона-камикадзе – вы вне игры.
- Быстрая сертификация. Контракты теперь получают компании, готовые предоставить «беспрепятственный доступ» к своим моделям. Никаких философских дискуссий.
- Лоббирование или провал. Бюджет на лоббирование в Вашингтоне у OpenAI в 2026 году вырос на 300%. Anthropic тратила на этику – и проиграла. Совпадение?
- Ренессанс локальных моделей. Страх зависимости от «капризного» ИИ заставил АНБ и ЦРУ вкладываться в собственные разработки. Llama 3.2 и ее форки теперь разворачиваются в закрытых дата-центрах. Для таких проектов нужны инструменты – возможно, вам пригодится Local AI Toolkit (партнерская ссылка).
Результат? Формируется двухуровневый рынок. Наверху – OpenAI и подобные ей «прагматики», сгребающие многомиллиардные контракты. Внизу – «идеалисты» вроде Anthropic, вытесненные в академию и корпоративный сектор, где этика все еще в цене. Подробнее о последствиях для локальных моделей – в нашем материале.
Что дальше? Прогноз на оставшийся 2026 год
Политический маятник качнулся в сторону силы. Но надолго ли? Вот что вероятно произойдет:
- Ответный ход ЕС. Брюссель уже готовит «черный список» ИИ-компаний, слишком активно сотрудничающих с военными. OpenAI может попасть под санкции, что ударит по ее европейскому бизнесу.
- Утечка мозгов из Anthropic. Часть инженеров, недовольных потерей госзаказов, уже зондирует почву у конкурентов. Ключевые специалисты по безопасности могут уйти в startups.
- Новый виток регулирования. Сенаторы-демократы готовят законопроект о «праве на этический ИИ» для государственных органов. Если пройдет – история получит неожиданный поворот.
Итог прост: если вы стартап в сфере ИИ и мечтаете о контракте с Пентагоном – выбрасывайте safeguards из дорожной карты. По крайней мере, до следующих выборов. А пока наблюдайте, как принципы, провозглашенные главным достижением индустрии, становятся ее главным политическим грузом. Как заметил один чиновник на условиях анонимности: «Война – это не место для философии. Особенно когда конкуренты уже зарядили пушки вашим же кодом».