Пентагон vs Anthropic: скандал об этике ИИ и автономном оружии в 2026 | AiManual
AiManual Logo Ai / Manual.
08 Мар 2026 Новости

Почему Пентагон объявил Anthropic угрозой: разбор скандала об этике и автономном оружии

Разбираем, почему Пентагон объявил компанию Anthropic угрозой национальной безопасности после её отказа работать над автономным оружием. Анализ этического конфл

Этика против артиллерии

Казалось бы, логично. Компания, построившая самые осторожные ИИ-модели в мире, отказывается помогать строить убийственные машины. В ответ её называют врагом государства. Welcome to 2026.

Два дня назад, 6 марта, Министерство обороны США выпустило заявление, которое взорвало тихий мир ИИ-индустрии. Anthropic, создатель Claude 4.5 Sonnet и Claude 4.0 Opus, официально признана "потенциальной угрозой технологическому превосходству и национальной безопасности". Не конкурент. Не неудобный партнёр. Угроза.

Позиция Пентагона на 08.03.2026 ясна: любой, кто отказывается сотрудничать по программе «ИИ-арсенал», автоматически попадает в чёрный список. Это не просьба, а ультиматум.

От запрета до ярлыка «враг»

Всё началось с того самого бунта в конце февраля. Anthropic, в отличие от некоторых коллег, не стала мямлить про "ответственное использование". Она прописала в лицензионных соглашениях для Claude 4.5: никакого целеуказания, никакого анализа данных массовой слежки для идентификации лиц, никакого планирования боевых операций. Жёсткий запрет на уровне кода.

Пентагон, понятное дело, не оценил жест. Их программа «ИИ-арсенал», запущенная в январе 2026, как раз и заточена под интеграцию коммерческих LLM в системы вооружения. Им нужен был Claude для анализа спутниковых снимков и видео с дронов в реальном времени. Для автоматического выделения целей. Anthropic сказала «нет».

💡
Ключевой момент: Anthropic не отказалась от всех военных контрактов. Компания готова работать над логистикой, киберзащитой, анализом документации. Но красная линия — прямое участие в причинении вреда. Именно это Пентагон и считает самым ценным.

Закон как дубинка

Что делает государство, когда частная компания не хочет играть по его правилам? Достаёт старые законы. В данном случае — Закон о военном производстве (Defense Production Act).

Слухи о его применении ходили с начала марта. Теперь они подтвердились. В заявлении Пентагона прямым текстом говорится: «Использование всех доступных правовых инструментов для обеспечения доступа к критически важным технологиям является обязанностью министерства». Перевод с бюрократического: «Или вы играете с нами, или мы заставим вас».

Это создаёт уникальный правовой прецедент. Может ли правительство силой заставить компанию переписать safeguards её ИИ? Может ли оно потребовать «бэкдор» в архитектуре Claude для военных целей? Юристы рубят лбы до сих пор.

Холодный расчёт или этический провал?

Почему Пентагон так резко эскалировал конфликт? Всё просто: время. Китайские аналоги Claude, такие как DeepSeek-V3 и Qwen2.5-Max, не имеют таких жёстких этических ограничений в своих лицензиях. Российские GigaChat и YandexGPT тоже. Американские военные боятся отстать.

СторонаПозиция (на 08.03.2026)Ключевой аргумент
ПентагонAnthropic — угроза. Нужен принудительный доступ.Национальная безопасность превыше корпоративной этики.
AnthropicЗапрет на вредоносное применение — незыблем.Создание ИИ, которому нельзя доверить автономное оружие, — наша миссия.
ИндустрияРаскол. OpenAI и Google наблюдают, Meta молчит.Прецедент определит будущее всех AI-компаний.

Ирония в том, что этическая позиция уже подняла популярность Claude среди корпоративных клиентов в ЕС и Азии. Бизнес любит предсказуемость. А ИИ, который нельзя заставить нарушать права человека, — это отличный пиар. Но Пентагону не до пиара.

Что будет дальше? (Спойлер: ничего хорошего)

Anthropic сейчас в осаде. С одной стороны — угроза принудительного открытия кода. С другой — возможный запрет на госзаказы, как это уже намекал Трамп. Инвесторы нервничают. Акции падают. Но сдаваться компания не собирается.

Вероятный сценарий на ближайшие месяцы:

  1. Судебная тяжба. Anthropic подаст иск о превышении полномочий. Это надолго заморозит попытки Пентагона.
  2. Техническое сопротивление. Инженеры могут начать внедрять ещё более жёсткие архитектурные safeguards, которые нельзя будет удалить без полного переписывания модели. Что-то вроде цифровой этической капсулы.
  3. Раскол рынка. Появятся «военные» форки открытых моделей, лишённых ограничений. И отдельный «этичный» сегмент с Claude во главе.

Главный урок для всех нас? Этические принципы в ИИ перестали быть абстрактной философией. Это теперь поле битвы с миллиардными ставками и угрозами со стороны государства. Anthropic первой наступила на мину. Но точно не последней.

Если вы думаете, что это просто корпоративная драма, посмотрите новости. Вчера, 7 марта, комитет Сената по разведке начал слушания по вопросу «Надёжности поставщиков ИИ для нужд обороны». Обсуждение открыл вопрос: «Можно ли доверять компаниям, которые не доверяют нам свой ИИ?». Вопрос риторический. Ответ — уже нет.

Подписаться на канал