Этика против артиллерии
Казалось бы, логично. Компания, построившая самые осторожные ИИ-модели в мире, отказывается помогать строить убийственные машины. В ответ её называют врагом государства. Welcome to 2026.
Два дня назад, 6 марта, Министерство обороны США выпустило заявление, которое взорвало тихий мир ИИ-индустрии. Anthropic, создатель Claude 4.5 Sonnet и Claude 4.0 Opus, официально признана "потенциальной угрозой технологическому превосходству и национальной безопасности". Не конкурент. Не неудобный партнёр. Угроза.
Позиция Пентагона на 08.03.2026 ясна: любой, кто отказывается сотрудничать по программе «ИИ-арсенал», автоматически попадает в чёрный список. Это не просьба, а ультиматум.
От запрета до ярлыка «враг»
Всё началось с того самого бунта в конце февраля. Anthropic, в отличие от некоторых коллег, не стала мямлить про "ответственное использование". Она прописала в лицензионных соглашениях для Claude 4.5: никакого целеуказания, никакого анализа данных массовой слежки для идентификации лиц, никакого планирования боевых операций. Жёсткий запрет на уровне кода.
Пентагон, понятное дело, не оценил жест. Их программа «ИИ-арсенал», запущенная в январе 2026, как раз и заточена под интеграцию коммерческих LLM в системы вооружения. Им нужен был Claude для анализа спутниковых снимков и видео с дронов в реальном времени. Для автоматического выделения целей. Anthropic сказала «нет».
Закон как дубинка
Что делает государство, когда частная компания не хочет играть по его правилам? Достаёт старые законы. В данном случае — Закон о военном производстве (Defense Production Act).
Слухи о его применении ходили с начала марта. Теперь они подтвердились. В заявлении Пентагона прямым текстом говорится: «Использование всех доступных правовых инструментов для обеспечения доступа к критически важным технологиям является обязанностью министерства». Перевод с бюрократического: «Или вы играете с нами, или мы заставим вас».
Это создаёт уникальный правовой прецедент. Может ли правительство силой заставить компанию переписать safeguards её ИИ? Может ли оно потребовать «бэкдор» в архитектуре Claude для военных целей? Юристы рубят лбы до сих пор.
Холодный расчёт или этический провал?
Почему Пентагон так резко эскалировал конфликт? Всё просто: время. Китайские аналоги Claude, такие как DeepSeek-V3 и Qwen2.5-Max, не имеют таких жёстких этических ограничений в своих лицензиях. Российские GigaChat и YandexGPT тоже. Американские военные боятся отстать.
| Сторона | Позиция (на 08.03.2026) | Ключевой аргумент |
|---|---|---|
| Пентагон | Anthropic — угроза. Нужен принудительный доступ. | Национальная безопасность превыше корпоративной этики. |
| Anthropic | Запрет на вредоносное применение — незыблем. | Создание ИИ, которому нельзя доверить автономное оружие, — наша миссия. |
| Индустрия | Раскол. OpenAI и Google наблюдают, Meta молчит. | Прецедент определит будущее всех AI-компаний. |
Ирония в том, что этическая позиция уже подняла популярность Claude среди корпоративных клиентов в ЕС и Азии. Бизнес любит предсказуемость. А ИИ, который нельзя заставить нарушать права человека, — это отличный пиар. Но Пентагону не до пиара.
Что будет дальше? (Спойлер: ничего хорошего)
Anthropic сейчас в осаде. С одной стороны — угроза принудительного открытия кода. С другой — возможный запрет на госзаказы, как это уже намекал Трамп. Инвесторы нервничают. Акции падают. Но сдаваться компания не собирается.
Вероятный сценарий на ближайшие месяцы:
- Судебная тяжба. Anthropic подаст иск о превышении полномочий. Это надолго заморозит попытки Пентагона.
- Техническое сопротивление. Инженеры могут начать внедрять ещё более жёсткие архитектурные safeguards, которые нельзя будет удалить без полного переписывания модели. Что-то вроде цифровой этической капсулы.
- Раскол рынка. Появятся «военные» форки открытых моделей, лишённых ограничений. И отдельный «этичный» сегмент с Claude во главе.
Главный урок для всех нас? Этические принципы в ИИ перестали быть абстрактной философией. Это теперь поле битвы с миллиардными ставками и угрозами со стороны государства. Anthropic первой наступила на мину. Но точно не последней.
Если вы думаете, что это просто корпоративная драма, посмотрите новости. Вчера, 7 марта, комитет Сената по разведке начал слушания по вопросу «Надёжности поставщиков ИИ для нужд обороны». Обсуждение открыл вопрос: «Можно ли доверять компаниям, которые не доверяют нам свой ИИ?». Вопрос риторический. Ответ — уже нет.