Приказ из Белого дома: как этические принципы взбесили Пентагон
28 февраля 2026 года администрация президента Трампа выпустила указ, который взорвал технологический мир. Anthropic, компания-создатель Claude, официально признана "угрозой национальной безопасности". Пентагон требует немедленного прекращения использования любых продуктов компании в государственных структурах. Причина? Упрямые этические ограничения, которые мешают военным применять ИИ так, как им хочется.
Это не первый конфликт Anthropic с военными. Еще в 2025 году компания публично запретила применять Claude для слежки и автономного оружия. Тогда это сочли PR-ходом. Сейчас это стало государственной проблемой.
Департамент обороны США в своем отчете указывает на "неприемлемый supply-chain risk". Переводя с бюрократического: Anthropic слишком принципиальна. Ее модели Claude 4.7 (последняя версия на февраль 2026) имеют встроенные safeguards, которые невозможно полностью отключить даже при доступе к API. Попробуй попросить Claude помочь с проектированием боевого дрона - он не просто откажет, а прочитает лекцию о международном праве.
Этические guardrails как оружие массового раздражения
В Пентагоне клянутся, что дело не в обиде. Мол, речь о реальной угрозе. Если страна зависит от ИИ, который в критический момент может отказаться выполнять приказ из-за "этических соображений" - это хуже, чем если бы его вообще не было. Особенно когда конкуренты готовы сотрудничать без лишних вопросов.
| Компания | Отношение к военным контрактам | Статус на 28.02.2026 |
|---|---|---|
| Anthropic | Запрещает использование в разработке оружия и массовой слежке | Внесена в список угроз нацбезопасности |
| OpenAI | Ограниченное сотрудничество с оборонным сектором | Активно наращивает госзаказы |
| xAI (Grok) | Готовность к сотрудничеству без этических ограничений | Под давлением правозащитников |
Звучит как паранойя? Возможно. Но в Пентагоне напоминают: Закон о военном производстве дает президенту право принуждать компании к сотрудничеству в "интересах обороны". Anthropic отказалась. Не просто отказалась - заявила, что скорее уйдет с рынка США, чем позволит использовать Claude для убийств.
Что на самом деле стоит за скандалом
Инсайдеры в Вашингтоне шепчут о двух реальных причинах. Первая - поза. Пентагон устал от "идейных" технарей, которые ставят свои принципы выше государственных интересов. Вторая - деньги. Военный бюджет на ИИ к 2026 году превысил $50 миллиардов. И эти деньги должны идти "проверенным партнерам".
Глава Anthropic Дарио Амодеи (который, кстати, не стесняется критиковать даже Nvidia) выступил с заявлением. Коротко: "Мы не изменим нашу конституцию ИИ. Если правительство США считает безопасность людей угрозой национальной безопасности - это их проблема, а не наша".
Эффект домино для индустрии
Запрет уже ударил по сотням федеральных подрядчиков, которые использовали Claude для невинных задач: анализ документов, переводы, исследование данных. Им пришлось срочно переходить на локальные модели или менее принципиальных поставщиков.
- Цена акций Anthropic упала на 35% за неделю
- Европейский союз заявил о "глубокой озабоченности" и пересмотре своих отношений с США в сфере ИИ
- В Кремниевой долине начался исход инженеров-этиков - они боятся преследований
Но самое интересное - реакция других компаний. OpenAI, которая когда-то тоже отказывалась от военных контрактов, теперь активно их заключает. Ирония? Еще какая. В 2025 году они смягчили политику использования. Теперь их GPT-5.2 можно применять для "оборонительных исследований". Что это значит? Все что угодно, если хорошо написать промпт.
Что будет дальше? Прогноз от того, кто видел это раньше
Anthropic не сдастся. У них достаточно денег от предыдущих раундов финансирования, чтобы существовать без госзаказов. Они переориентируются на Европу и Азию, где этические ИИ встречают овациями. Claude 4.7 продолжит развиваться, но для американских военных она останется заблокированной.
Пентагон получит свой "послушный ИИ". Вероятно, на базе открытых моделей или от менее принципиальных стартапов. А потом удивятся, почему их системы взламывают хакеры или почему дроны начинают вести себя непредсказуемо. Потому что этика в ИИ - это не украшение, а система безопасности.
Мой совет инвесторам? Покупайте акции европейских компаний, которые разрабатывают ИИ с юридически закрепленными этическими рамками. Через год, когда у Пентагона начнутся проблемы с "послушными" моделями, они станут золотыми.
А пользователям - скачивайте Claude 4.7, пока ее не заблокировали полностью. И помните: ИИ, который может отказаться убивать, стоит дороже, чем тот, который согласен на все.