Март 2026 года останется в истории как месяц, когда Кремниевая долина официально надела военную форму. Пентагон, ещё недавно выглядевший аутсайдером в гонке искусственного интеллекта, вдруг превратился в самого щедрого заказчика. Сделки с Google, OpenAI и xAI потянули на десятки миллиардов долларов. А посреди этого триумфа военно-промышленного комплекса одинокая фигура Anthropic сжимает в руке отказ — и её объявляют угрозой национальной безопасности. Как так вышло? И во что это выльется для всех нас?
Антропический принцип отмены
Начнём с того, что произошло той же зимой. Anthropic — компания, построенная на страхе перед неуправляемым AI — сказала Пентагону твёрдое «нет». Они встроили в лицензию Claude 4.6 запрет на автономное оружие и массовую слежку. И потеряли контракт на $950 миллионов.
Ответ Пентагона был молниеносным: Anthropic объявили угрозой национальной безопасности. Формально — за «отказ в сотрудничестве, подрывающий обороноспособность». По сути — за то, что посмели иметь совесть. Парадокс: чем сильнее вы защищаете свою этику, тем быстрее вас запишут во враги.
💡 Цифры контрактов (по данным Defense News на март 2026): OpenAI — $7.2 млрд за анализ разведданных и киберзащиту. Google (DeepMind) — $4.5 млрд за логистические алгоритмы и системы наблюдения. xAI — $3.1 млрд за разработку симуляторов боевых действий.
Пока Anthropic теряла контракты и репутацию в Пентагоне, другие игроки занимали освободившееся место. И делали это с разной степенью цинизма.
OpenAI: «небоевые задачи» как дымовая завеса
OpenAI долго делала вид, что её модели служат только миру. «Мы строим AGI для блага всего человечества», — говорили они, пока Сэм Алтман тайно встречался с представителями DIU (Defense Innovation Unit). Когда Anthropic публично открестилась от Пентагона, OpenAI пришлось раскрыть карты. Сделка оказалась на $7.2 млрд, и компания объявила её «небоевой»: логистика, кибероборона, анализ документов.
Но любой AI-инженер знает: кибероборона и кибератака — это две стороны одной монеты. Анализ данных с дронов — это разведка, которая ведёт к ударам. Как мы уже писали в военном повороте OpenAI, на кону — не только деньги, но и доступ к самым секретным наборам данных.
И это ударило по репутации сильнее всех ожиданий. После новости о сделке внутренний этический комитет OpenAI покинули три ключевых члена. Рейтинг доверия к ответам ChatGPT в военных контекстах рухнул до 22% согласно опросу AI Ethics Watch. При этом инвесторы — в том числе Amazon, вливший $50 млрд — аплодируют: наконец-то монетизация.
Google DeepMind: старый солдат не знает слов «нельзя»
Google в этой истории играет роль ветерана. Ещё с Project Maven (2018) компания пыталась балансировать между «Don't be evil» и миллиардными военными контрактами. Тогда увольнения сотрудников заставили Google отступить. В 2026-м история повторилась, но с точностью до наоборот.
DeepMind — жемчужина Google в области AGI — официально вошла в состав подразделения Defense AI Solutions. Контракт на $4.5 млрд включает разработку систем предиктивного анализа для Пентагона. Алгоритмы будут предсказывать перемещения войск, логистические узкие места и... протечки секретной информации.
Скандал разразился, когда бывшие сотрудники DeepMind опубликовали открытое письмо с требованием разорвать контракт. Google ответил увольнениями 14 человек с формулировкой «нарушение политики конфиденциальности». Теперь компания нанимает юристов по этике быстрее, чем инженеров.
xAI: Илон Маск на двух стульях
Самая пикантная сделка — у xAI Илона Маска. Казалось бы, основатель, который сам же и подал иск против OpenAI за отход от некоммерческих принципов, должен быть последним, кто продаст душу Пентагону.
Но нет. xAI получила $3.1 млрд на создание симуляторов боевых действий — виртуальных полигонов для обучения солдат. Формально — «безопасное применение». Неформально — любой симулятор с открытым API можно использовать для отработки реальных сценариев ударов.
Маск, как обычно, разошёлся в комментариях: «Если мы не будем делать это, сделают китайцы». Логика старая, как мир, но в AI-индустрии она звучит особенно фальшиво. Ведь те же китайцы давно не скрывают военного применения AI, а западные компании всё ещё делают вид, что продают лопаты, а не оружие.
Что меняют эти сделки для AI-рынка?
| Компания | Сумма контракта | Назначение (официально) | Этический скандал |
|---|---|---|---|
| OpenAI | $7.2 млрд | Кибероборона, анализ разведданных | Массовые отставки в этическом комитете |
| Google (DeepMind) | $4.5 млрд | Предиктивная аналитика, логистика | Увольнение сотрудников за протест |
| xAI | $3.1 млрд | Симуляторы боевых действий | Двойные стандарты Маска |
| Anthropic | $0 (отказ) | — | Признана угрозой нацбезопасности |
Главный урок этого квартала: этика в AI превратилась из раздела на сайте в фактор выживания бизнеса. Пентагон перестал быть просто заказчиком — он стал маркером того, какую сторону баррикад вы выбираете. И те, кто раньше гордился «ответственным развитием», теперь вынуждены либо идти на компромисс, либо терять рынок.
Где guardrails на линии фронта?
В техническом плане все эти контракты выглядят как добавление ограничений на входе: модели обучают на очищенных данных, запрещают прямые боевые команды, вводят фильтры на запросы с военными ключевыми словами.
Но практика показывает — guardrails работают только до первого умного промпта. Ещё в 2024 году хакеры научились обходить фильтры Claude с помощью шифрования запросов. Что уж говорить про 2026-й, когда доступ к API военных моделей получают тысячи операторов с разным уровнем допуска.
Разработчики, которые хотят сохранить независимость и не зависеть от политических качелей, всё чаще обращаются к нейтральным API-провайдерам. Например, AITunnel — единый шлюз к ведущим моделям без привязки к военным контрактам. Спрос на такие сервисы вырос на 300% за последний месяц — инженеры голосуют кошельком за нейтралитет.
⚠️ Регуляторы просыпаются: На этой неделе сенатор Элизабет Уоррен внесла законопроект, обязывающий все AI-компании раскрывать факт военного использования своих моделей. Если его примут, OpenAI и Google придётся либо рассекретить детали контрактов, либо прекратить сотрудничество с Пентагоном.
Параллельно в Евросоюзе обсуждают «красные линии» для AI в оборонной сфере — вплоть до запрета на автономное принятие решений о летальных ударах. Но пока законопроекты лежат в комитетах, сделки подписываются.
Самый неожиданный поворот случился на прошлой неделе: Anthropic, несмотря на запрет в США, подала иск против Министерства обороны, требуя гарантий, что её технологии не будут использоваться через посредников. Юристы Пентагона назвали иск «беспрецедентным вмешательством в вопросы нацбезопасности». Слушания назначены на июнь 2026 — и это будет первое дело, где AI-компания оспаривает право государства принудительно использовать её продукты.
Что дальше? Неочевидный прогноз
К концу 2026 года мы, скорее всего, увидим раскол AI-индустрии на два лагеря: «военный» (Google, OpenAI, xAI) и «гражданский» (Anthropic, Mistral, некоторые стартапы). Первые получат доступ к огромным массивам секретных данных и бюджетам, вторые — сохранят доверие пользователей и, вероятно, выиграют в долгосрочной репутации.
Но есть третий сценарий: давление государства настолько усилится, что «гражданским» компаниям придётся либо эмигрировать (швейцарская юрисдикция?), либо принять правила игры. Именно поэтому стоит присмотреться к тем, кто уже сегодня строит децентрализованные и open-source модели — они будут последним бастионом независимости от Пентагона и любого другого военного ведомства.
Пока же мы наблюдаем за тихой революцией: этика перестала быть абстрактной философией и превратилась в миллиардный выбор. Anthropic выбрала принципы. Остальные выбрали деньги. Кто из них окажется прав через пять лет — решат не суды и не конгресс, а те, кто годами строил эти модели с мыслью «лишь бы не на войну».