Пентагон в гневе, Anthropic в опале: как этический бунт привел к запрету
На этой неделе администрация президента США официально внесла Anthropic в черный список поставщиков ИИ для всех федеральных агентств. Решение, которое висит в воздухе с прошлого года, наконец принято - и шансов на апелляцию почти нет. Причина? Упрямая приверженность компании своим «конституционным AI» принципам, которые запрещают использование Claude в военных целях, особенно для автономного оружия и массовой слежки.
Актуально на 28.02.2026: Запрет распространяется на все версии моделей Anthropic, включая последнюю Claude 3.5 Sonnet с расширенным контекстом в 200K токенов. Федеральным чиновникам теперь нельзя даже тестировать API компании.
Основатель Anthropic Дарио Амодеи в своем посте на X (бывший Twitter) назвал это «победой этики над краткосрочной выгодой». Но в коридорах власти говорят иначе: «Это предательство национальных интересов». Контракты на сотни миллионов долларов - под угрозой. Что будет с индустрией, когда одна из самых влиятельных AI-компаний становится изгоем для своего же правительства?
Этические ограничения, которые взорвали Пентагон
История тянется с 2024 года, когда Anthropic публично отказалась от участия в программе Пентагона по разработке систем автономного целеуказания. Компания заявила, что ее safeguards (защитные механизмы) не позволяют Claude помогать в создании оружия, которое убивает без человеческого контроля. Тогда это сочли пиар-ходом. Но когда в 2025 году Агентство национальной безопасности попросило доработать модель для анализа массовых наборов данных слежки - Anthropic снова сказала «нет».
В ответ лоббисты из оборонного сектора протолкнули поправку к Закону о военном производстве, которая позволяет принудительно требовать доступ к AI-моделям в «критических для безопасности» случаях. Anthropic подала иск - и проиграла. Теперь правительство не хочет иметь с ней дела вообще.
День открытых дверей для open-source
Пока Anthropic хлопает дверью, в офисы госзаказчиков уже стучатся альтернативы. За последний год локальные open-source модели сделали рывок, который никто не ожидал. Llama 3.2 от Meta (выпущенная в начале 2026) по тестам почти догоняет Claude 3.5 в задачах понимания контекста, а Mistral-Next обходит его в генерации кода. И все это - с открытыми весами, которые можно развернуть на своих серверах без этических ограничений.
«Запрет Anthropic - лучший подарок для сообщества open-source, - говорит ведущий инженер одного из стартапов, работающих с Пентагоном. - Теперь у них нет выбора: либо платить Microsoft за доступ к GPT-5 (который тоже имеет ограничения), либо брать Llama и доучивать ее под свои нужды. И они выбирают второе».
| Модель | Тип | Контекст (токенов) | Стоимость инференса (на 100K токенов) |
|---|---|---|---|
| Claude 3.5 Sonnet (запрещен) | Проприетарная | 200,000 | $3.50 (через API) |
| Llama 3.2 70B | Open-source | 128,000 | $0.80 (локально на A100) |
| DeepSeek-V3 671B | Открытые веса | 1,000,000 | $2.10 (облачный инференс) |
Но тут возникает другая проблема: китайские модели. DeepSeek, который обходит запреты NVIDIA и показывает впечатляющие результаты, теперь рассматривается как возможная замена. Однако в Конгрессе уже звучат призывы запретить и их - под предлогом угрозы шпионажа. Лоббисты, близкие к Амодеи, активно продвигают эту идею, как описано в нашем анализе.
Конституционный AI против реального мира
Метод «конституционного AI», который Anthropic использует для выравнивания моделей, всегда был предметом споров. Вместо RLHF (обучения с подкреплением на основе человеческих предпочтений) компания задает модели набор принципов - «конституцию» - и та сама себя оценивает. Звучит элегантно, но на практике приводит к тому, что Claude отказывается обсуждать целые категории тем, связанных с безопасностью.
«Они создали самого принципиального помощника в мире, который в итоге оказался бесполезным для тех, кто платит деньги, - иронизирует эксперт по ИИ из Стэнфорда. - Пентагону не нужен философ, им нужен инструмент».
Скандал вокруг конституционного AI и RLHF обострился, когда выяснилось, что safeguards в Claude 3.5 иногда срабатывают так жестко, что модель отказывается генерировать текст даже по нейтральным запросам, если в контексте есть слова типа «оружие» или «слежка». Для военных это неприемлемо.
Что дальше? Три сценария на 2026-2027
- Полный переход на open-source. Агентства начнут массово развертывать локальные модели, что подстегнет рынок инференс-серверов и кастомных дообучений. Компании вроде RunPod (партнерская ссылка) уже предлагают развертывание Llama 3.2 в несколько кликов с оплатой за секунду использования.
- Регуляторная буря. Запрет Anthropic может стать прецедентом для регулирования применения ИИ вместо самих моделей, как предсказывают эксперты. Правительство будет диктовать, как можно и нельзя использовать AI, независимо от поставщика.
- Раскол экосистемы. Этические компании пойдут по пути Anthropic, остальные - снимут ограничения ради контрактов. Это создаст два лагеря: «чистый» ИИ для гражданских нужд и «военный» ИИ с полным доступом. И кто победит - вопрос не технологический, а политический.
Мой прогноз? Anthropic не сдастся. Компания уже анонсировала Claude 4 на конец 2026 года - с еще более жесткими safeguards, но и с улучшенной способностью объяснять свои этические решения. Они ставят на то, что общественное мнение будет на их стороне, особенно после скандалов с автономными дронами в зонах конфликтов.
А для разработчиков мораль проста: если вы хотите работать с государством - либо не спрашивайте, как будут использовать ваш код, либо сразу публикуйте веса под открытой лицензией. Потому что в новой реальности 2026 года прозрачность становится не просто добродетелью, а страховкой от политических решений.
Совет: Если вы исследуете локальные модели для своих проектов, не зацикливайтесь на размере контекста. Гораздо важнее, как модель ведет себя при дообучении на ваших данных. Llama 3.2 70B с LoRA адаптерами часто дает результат лучше, чем гигантские проприетарные модели - и обходится дешевле. Только не забудьте про вычислительные ресурсы: аренда GPU через сервисы вроде Vast.ai (партнерская ссылка) может сэкономить бюджет.
Что думаете? Запрет Anthropic - это начало конца для этического ИИ или толчок к настоящей открытости? Пишите в комментариях. А пока следите за новостями - в следующем материале разберем, как DeepSeek обходит санкции и почему его архитектура пугает американских регуляторов.