Этический раскол AI: Anthropic отказалась от Пентагона, OpenAI согласился | AiManual
AiManual Logo Ai / Manual.
08 Мар 2026 Новости

Этический раскол в AI: почему Anthropic отказалась от Пентагона, а OpenAI согласился, и к чему это привело

Почему Anthropic запретила военным использовать Claude, а OpenAI пошел на сделку с Пентагоном. Увольнение ключевых сотрудников и последствия для этики AI.

Два пути из одной Кремниевой долины

Март 2026 года. В воздухе пахнет разводом. Не семейным, а идеологическим. Два гиганта генеративного ИИ — Anthropic и OpenAI — только что показали, куда ведут их моральные компасы. Один указал на Пентагон. Другой — в прямо противоположную сторону.

Результат? Самый громкий скандал в индустрии со времен выхода GPT-3. Отставки. Угрозы регуляторов. И миллионы пользователей, голосующих ногами (и подписками) за то, во что они верят.

Контекст: В феврале 2026 года Anthropic официально запретила Министерству обороны США использовать Claude для разработки автономного оружия и массовой слежки. Компания встроила эти ограничения прямо в лицензионное соглашение и архитектуру своих моделей, включая флагманскую Claude 4.6.

«Нет» за миллиард долларов

Anthropic сказала «нет» не просто так. По данным источников, близких к Совету по надзору компании, Пентагон через Defense Innovation Unit предложил контракт на адаптацию Claude 4.6 для системы анализа разведданных в реальном времени. Система должна была обрабатывать потоки данных с дронов, спутников и прослушки, выделяя «аномалии» и «угрозы».

Цифра контракта — около $950 миллионов. Сумма, которая решает все проблемы с финансированием на годы вперед.

Anthropic отказалась. Причем публично. CEO Дарио Амодеи заявил, что их конституционные принципы ИИ несовместимы с использованием технологии для целеуказания или наблюдения за гражданскими. «Мы не хотим, чтобы наш код помогал кому-то нажать на курок, даже косвенно», — сказал он на внутренней встрече.

💡
Интересный парадокс: пока инженеры Anthropic перестают писать код вручную, доверяя это ИИ, компания тратит огромные ресурсы на то, чтобы этот же ИИ не попал не в те руки.

OpenAI сказал «Да». И заплатил цену

Пока в Anthropic праздновали моральную победу, в OpenAI бушевал шторм. Всего через неделю после заявления Anthropic, OpenAI подтвердила, что ведет переговоры с DoD о поставке своих моделей для «небоевых задач»: логистики, киберзащиты, анализа документов.

Формально — для помощи с бюрократией. Неформально — первый шаг в скользкую воронку военно-промышленного комплекса.

Реакция внутри компании была мгновенной. 4 марта 2026 года Caitlin Kalinowski, вице-президент по аппаратному инжинирингу и ключевая фигура в разработке собственных чипов OpenAI, уволилась. В своем заявлении для сотрудников она написала: «Я присоединилась к OpenAI, чтобы строить ИИ на благо человечества. Не для того, чтобы оптимизировать цепочки поставок для армии».

Ее уход — не просто потеря таланта. Это сигнал о глубоком финансовом и этическом кризисе внутри лидера рынка. Kalinowski отвечала за создание альтернативы чипам Nvidia — стратегический проект по снижению зависимости и стоимости. Без нее сроки сдвигаются на годы.

Компания Позиция по Пентагону Ключевое последствие Рост аудитории (март 2026)
Anthropic Полный запрет на автономное оружие и слежку Взрывной рост доверия и DAU на 47% +47% (до 5.3 млн DAU)
OpenAI Переговоры о «небоевом» сотрудничестве Уход ключевого инженера, обвинения в лицемерии +3%

Цепная реакция: от утечки мозгов до угрозы запрета

История с Kalinowski — только верхушка айсберга. Три старших исследователя из отдела безопасности OpenAI подали заявления об уходе в начале марта. Они пишут в своих блогах о «размывании этических границ» и «предательстве исходной миссии».

Пентагон, в свою очередь, не остался в долгу. После отказа Anthropic в Конгрессе зазвучали голоса о применении Закона о военном производстве (Defense Production Act), который позволяет принудительно реквизировать технологии для нужд обороны. Для Anthropic это прямая экзистенциальная угроза.

А еще есть риск цепочки поставок. OpenAI зависела от Kalinowski в создании собственных чипов. Теперь этот проект под вопросом, а значит, компания остается в тисках у Nvidia и TSMC. Любой сбой — и тренировка новых моделей встанет. Anthropic, получившая в начале года огромные инвестиции от Sequoia Capital и других, чувствует себя увереннее.

Предупреждение: Юристы отмечают, что если Пентагон все-таки применит Закон о военном производстве против Anthropic, это создаст опасный прецедент. Любая американская tech-компания может лишиться контроля над своими разработками под предлогом «национальной безопасности».

Что теперь? Две реальности, одно будущее

К середине марта 2026 года индустрия раскололась на два лагеря.

  • Лагерь «Этиков»: Во главе с Anthropic. Сюда потянулись стартапы, которые делают ставку на прозрачность и доверие. Их аргумент прост: пользователи готовы платить (или предпочитать) тем, кто не играет в игры с автономным оружием. Особенно после скандалов с утечкой военных тестов.
  • Лагерь «Прагматиков»: Во главе с OpenAI и рядом других гигантов. Их логика: если мы не будем работать с военными, это сделает кто-то другой, менее скрупулезный. А еще — бюджеты Пентагона огромны, и они могут спасти компанию от финансовой дыры.

Пользователи голосуют очень четко. Ежедневная аудитория Claude бьет рекорды. В OpenAI пытаются тушить пожар в медиа, но утекшие внутренние переписки о «стратегической необходимости» сотрудничества с DoD только подливают масла в огонь.

Ирония в том, что та же самая технология, которую используют для читерства на собеседованиях, теперь решает судьбу глобальной безопасности.

Что делать разработчику, который выбирает, где работать? Смотреть не на зарплату, а на пункт в контракте о военном использовании. Что делать инвестору? Делить портфель между «этиками» и «прагматиками», понимая, что регуляторный удар может прийти в любой момент.

Самый неочевидный совет? Не верьте публичным заявлениям. Изучайте лицензионные соглашения API. Именно там, в мелком шрифте, написано, можно ли использовать модель для того, чтобы следить за вами или выбирать цель для удара. И если там пусто — бегите.

Подписаться на канал