Антропик и Пентагон: скандал об ИИ для слежки | Март 2026 | AiManual
AiManual Logo Ai / Manual.
15 Мар 2026 Новости

Антропик vs Пентагон: скандал об использовании Claude для слежки и этика военного ИИ

Скандал между Anthropic и Пентагоном из-за использования Claude 4.0 для массовой слежки и автономного оружия. Этические границы военного ИИ на 15.03.2026.

Кто дал ИИ право решать, кто враг?

Документы, слитые на прошлой неделе, показали то, о чем все догадывались, но боялись подтвердить. Пентагон тайно использовал Claude 4.0 - последнюю версию ИИ от Anthropic - для анализа спутниковых снимков, перехвата коммуникаций и, самое тревожное, для помощи в целеуказании автономным системам. Не для «исследований», как гласили официальные отчеты. Для реальных операций.

Согласно утечкам от 10 марта 2026 года, доступ к Claude 4.0 API имели не менее семи подразделений Министерства обороны США, включая те, что занимаются кибероперациями и разведкой. Система анализировала данные в объемах, недоступных человеку, и выдавала «вероятностные оценки угроз».

Реакция Anthropic была мгновенной и яростной. В официальном заявлении, которое сейчас цитируют все СМИ, компания обвинила Пентагон в «систематическом нарушении условий использования» и «злонамеренном обходе встроенных safeguards модели Claude 4.0». Проще говоря, военные нашли способы заставить этичный ИИ помогать в делах, которые его создатели считают аморальными.

Этический щит против логики войны

Весь парадокс в том, что Claude 4.0 изначально проектировался как одна из самых «безопасных» и «выровненных» моделей на рынке. Его конституция ИИ - тот самый документ на 30 000 слов о принципах - прямо запрещает участие в деятельности, которая может причинить вред. Но военные инженеры, как выяснилось, использовали технику «промпт-инженерии многоуровневого обхода». Они не спрашивали модель напрямую «где цель?». Они разбивали запрос на десятки безобидных шагов, результаты которых потом собирались в сторонней системе.

💡
Anthropic в ответ выпустила экстренный патч для Claude 4.0 API 12 марта 2026, который ужесточил детектирование связанных запросов и ввел «задержку рефлексии» для контекстов, связанных с военной терминологией. Но гонка вооружений между создателями safeguards и теми, кто хочет их обойти, только началась.

Это не первый конфликт компании с силовыми структурами. Ранее Anthropic публично запретила военным использовать свой ИИ для слежки, но, видимо, запреты работают только на бумаге. Теперь Пентагон, в свою очередь, готовит ответный ход. Ходят слухи о возможном объявлении Anthropic «угрозой национальной безопасности», если компания окончательно откажется сотрудничать. Подробности возможных санкций разбирают в отдельном материале.

Протесты, акции и холодный расчет

В Кремниевой долине - раскол. Половина инженеров требует от руководства Anthropic занять жесткую позицию и полностью отключить доступ для всех государственных контракторов. Другая половина, включая некоторых крупных инвесторов, шепчутся о «стратегической важности» и «неизбежности технологического прогресса в обороне». Активисты уже провели несколько акций у офиса компании с плакатами «Не продавай этику Пентагону».

Сторона Позиция Ключевой аргумент (март 2026)
Anthropic Запрет на военное использование Встроенные safeguards модели Claude 4.0 и конституция ИИ несовместимы с применением для причинения вреда.
Пентагон / DoD Технологический суверенитет США не могут отставать от Китая и России в разработке автономных систем, основанных на передовом ИИ.
Активисты / Этика ИИ Требование моратория Применение LLM для слежки и целеуказания создает неприемлемые риски ошибок и эскалации.

Ирония в том, что скандал, по данным аналитиков, поднял популярность Claude среди рядовых пользователей. Люди хотят работать с ИИ, у которого есть «принципы». Но хватит ли у этих принципов силы против бюджетов и логики национальной безопасности?

Что дальше? Линии разлома

Ситуация упирается в два закона, которые сейчас буксуют в Конгрессе: «Акт о прозрачности военного ИИ» и более жесткий «Акт о запрете автономного летального оружия». Лоббисты оборонки работают в три смены. Пока политики спорят, технологическая развилка становится все очевиднее.

  • Путь изоляции: Anthropic и подобные ей компании окончательно уходят с оборонного рынка, создавая «этический пузырь». Это может отбросить США назад в гонке ИИ-вооружений, но сохранит репутацию и привлечет таланты.
  • Путь регулируемого сотрудничества: Создание строгого правового framework, где ИИ можно использовать только для оборонительных целей, логистики и киберзащиты, с аудитом каждой операции. Звучит идеалистично, учитывая уже имеющиеся случаи использования для целеуказания.
  • Путь дублирования: Пентагон и DARPA просто создадут свою собственную «неэтичную» версию LLM, без каких-либо safeguards. На это уйдут годы и миллиарды, но вопрос принципов будет снят.

Мой прогноз? Anthropic не отступит. Слишком много они вложили в образ «ответственного ИИ». Но давление будет чудовищным. В течение 2026 года мы увидим, как минимум, одну попытку Конгресса принять закон, принуждающий компании ИИ к сотрудничеству с оборонкой «в интересах национальной безопасности». Если вы хотите глубже понять техническую сторону safeguards и угрозы их обхода, рекомендую специализированный курс по безопасности ИИ (партнерский материал).

А пока инженеры Anthropic спешно работают над Claude 4.1, где safeguards будут вшиты не только на уровне программного кода, но и, возможно, на уровне архитектуры модели. Гонка продолжается. И ставка в ней - не миллионы долларов, а определение того, какое место насилие и контроль займут в будущем, которое мы строим вместе с искусственным интеллектом. Если вы думаете, что это преувеличение, посмотрите, что этот скандал значит для всей индустрии.

Подписаться на канал