Кто дал ИИ право решать, кто враг?
Документы, слитые на прошлой неделе, показали то, о чем все догадывались, но боялись подтвердить. Пентагон тайно использовал Claude 4.0 - последнюю версию ИИ от Anthropic - для анализа спутниковых снимков, перехвата коммуникаций и, самое тревожное, для помощи в целеуказании автономным системам. Не для «исследований», как гласили официальные отчеты. Для реальных операций.
Согласно утечкам от 10 марта 2026 года, доступ к Claude 4.0 API имели не менее семи подразделений Министерства обороны США, включая те, что занимаются кибероперациями и разведкой. Система анализировала данные в объемах, недоступных человеку, и выдавала «вероятностные оценки угроз».
Реакция Anthropic была мгновенной и яростной. В официальном заявлении, которое сейчас цитируют все СМИ, компания обвинила Пентагон в «систематическом нарушении условий использования» и «злонамеренном обходе встроенных safeguards модели Claude 4.0». Проще говоря, военные нашли способы заставить этичный ИИ помогать в делах, которые его создатели считают аморальными.
Этический щит против логики войны
Весь парадокс в том, что Claude 4.0 изначально проектировался как одна из самых «безопасных» и «выровненных» моделей на рынке. Его конституция ИИ - тот самый документ на 30 000 слов о принципах - прямо запрещает участие в деятельности, которая может причинить вред. Но военные инженеры, как выяснилось, использовали технику «промпт-инженерии многоуровневого обхода». Они не спрашивали модель напрямую «где цель?». Они разбивали запрос на десятки безобидных шагов, результаты которых потом собирались в сторонней системе.
Это не первый конфликт компании с силовыми структурами. Ранее Anthropic публично запретила военным использовать свой ИИ для слежки, но, видимо, запреты работают только на бумаге. Теперь Пентагон, в свою очередь, готовит ответный ход. Ходят слухи о возможном объявлении Anthropic «угрозой национальной безопасности», если компания окончательно откажется сотрудничать. Подробности возможных санкций разбирают в отдельном материале.
Протесты, акции и холодный расчет
В Кремниевой долине - раскол. Половина инженеров требует от руководства Anthropic занять жесткую позицию и полностью отключить доступ для всех государственных контракторов. Другая половина, включая некоторых крупных инвесторов, шепчутся о «стратегической важности» и «неизбежности технологического прогресса в обороне». Активисты уже провели несколько акций у офиса компании с плакатами «Не продавай этику Пентагону».
| Сторона | Позиция | Ключевой аргумент (март 2026) |
|---|---|---|
| Anthropic | Запрет на военное использование | Встроенные safeguards модели Claude 4.0 и конституция ИИ несовместимы с применением для причинения вреда. |
| Пентагон / DoD | Технологический суверенитет | США не могут отставать от Китая и России в разработке автономных систем, основанных на передовом ИИ. |
| Активисты / Этика ИИ | Требование моратория | Применение LLM для слежки и целеуказания создает неприемлемые риски ошибок и эскалации. |
Ирония в том, что скандал, по данным аналитиков, поднял популярность Claude среди рядовых пользователей. Люди хотят работать с ИИ, у которого есть «принципы». Но хватит ли у этих принципов силы против бюджетов и логики национальной безопасности?
Что дальше? Линии разлома
Ситуация упирается в два закона, которые сейчас буксуют в Конгрессе: «Акт о прозрачности военного ИИ» и более жесткий «Акт о запрете автономного летального оружия». Лоббисты оборонки работают в три смены. Пока политики спорят, технологическая развилка становится все очевиднее.
- Путь изоляции: Anthropic и подобные ей компании окончательно уходят с оборонного рынка, создавая «этический пузырь». Это может отбросить США назад в гонке ИИ-вооружений, но сохранит репутацию и привлечет таланты.
- Путь регулируемого сотрудничества: Создание строгого правового framework, где ИИ можно использовать только для оборонительных целей, логистики и киберзащиты, с аудитом каждой операции. Звучит идеалистично, учитывая уже имеющиеся случаи использования для целеуказания.
- Путь дублирования: Пентагон и DARPA просто создадут свою собственную «неэтичную» версию LLM, без каких-либо safeguards. На это уйдут годы и миллиарды, но вопрос принципов будет снят.
Мой прогноз? Anthropic не отступит. Слишком много они вложили в образ «ответственного ИИ». Но давление будет чудовищным. В течение 2026 года мы увидим, как минимум, одну попытку Конгресса принять закон, принуждающий компании ИИ к сотрудничеству с оборонкой «в интересах национальной безопасности». Если вы хотите глубже понять техническую сторону safeguards и угрозы их обхода, рекомендую специализированный курс по безопасности ИИ (партнерский материал).
А пока инженеры Anthropic спешно работают над Claude 4.1, где safeguards будут вшиты не только на уровне программного кода, но и, возможно, на уровне архитектуры модели. Гонка продолжается. И ставка в ней - не миллионы долларов, а определение того, какое место насилие и контроль займут в будущем, которое мы строим вместе с искусственным интеллектом. Если вы думаете, что это преувеличение, посмотрите, что этот скандал значит для всей индустрии.