Два пути из одной Кремниевой долины
Март 2026 года. В воздухе пахнет разводом. Не семейным, а идеологическим. Два гиганта генеративного ИИ — Anthropic и OpenAI — только что показали, куда ведут их моральные компасы. Один указал на Пентагон. Другой — в прямо противоположную сторону.
Результат? Самый громкий скандал в индустрии со времен выхода GPT-3. Отставки. Угрозы регуляторов. И миллионы пользователей, голосующих ногами (и подписками) за то, во что они верят.
Контекст: В феврале 2026 года Anthropic официально запретила Министерству обороны США использовать Claude для разработки автономного оружия и массовой слежки. Компания встроила эти ограничения прямо в лицензионное соглашение и архитектуру своих моделей, включая флагманскую Claude 4.6.
«Нет» за миллиард долларов
Anthropic сказала «нет» не просто так. По данным источников, близких к Совету по надзору компании, Пентагон через Defense Innovation Unit предложил контракт на адаптацию Claude 4.6 для системы анализа разведданных в реальном времени. Система должна была обрабатывать потоки данных с дронов, спутников и прослушки, выделяя «аномалии» и «угрозы».
Цифра контракта — около $950 миллионов. Сумма, которая решает все проблемы с финансированием на годы вперед.
Anthropic отказалась. Причем публично. CEO Дарио Амодеи заявил, что их конституционные принципы ИИ несовместимы с использованием технологии для целеуказания или наблюдения за гражданскими. «Мы не хотим, чтобы наш код помогал кому-то нажать на курок, даже косвенно», — сказал он на внутренней встрече.
OpenAI сказал «Да». И заплатил цену
Пока в Anthropic праздновали моральную победу, в OpenAI бушевал шторм. Всего через неделю после заявления Anthropic, OpenAI подтвердила, что ведет переговоры с DoD о поставке своих моделей для «небоевых задач»: логистики, киберзащиты, анализа документов.
Формально — для помощи с бюрократией. Неформально — первый шаг в скользкую воронку военно-промышленного комплекса.
Реакция внутри компании была мгновенной. 4 марта 2026 года Caitlin Kalinowski, вице-президент по аппаратному инжинирингу и ключевая фигура в разработке собственных чипов OpenAI, уволилась. В своем заявлении для сотрудников она написала: «Я присоединилась к OpenAI, чтобы строить ИИ на благо человечества. Не для того, чтобы оптимизировать цепочки поставок для армии».
Ее уход — не просто потеря таланта. Это сигнал о глубоком финансовом и этическом кризисе внутри лидера рынка. Kalinowski отвечала за создание альтернативы чипам Nvidia — стратегический проект по снижению зависимости и стоимости. Без нее сроки сдвигаются на годы.
| Компания | Позиция по Пентагону | Ключевое последствие | Рост аудитории (март 2026) |
|---|---|---|---|
| Anthropic | Полный запрет на автономное оружие и слежку | Взрывной рост доверия и DAU на 47% | +47% (до 5.3 млн DAU) |
| OpenAI | Переговоры о «небоевом» сотрудничестве | Уход ключевого инженера, обвинения в лицемерии | +3% |
Цепная реакция: от утечки мозгов до угрозы запрета
История с Kalinowski — только верхушка айсберга. Три старших исследователя из отдела безопасности OpenAI подали заявления об уходе в начале марта. Они пишут в своих блогах о «размывании этических границ» и «предательстве исходной миссии».
Пентагон, в свою очередь, не остался в долгу. После отказа Anthropic в Конгрессе зазвучали голоса о применении Закона о военном производстве (Defense Production Act), который позволяет принудительно реквизировать технологии для нужд обороны. Для Anthropic это прямая экзистенциальная угроза.
А еще есть риск цепочки поставок. OpenAI зависела от Kalinowski в создании собственных чипов. Теперь этот проект под вопросом, а значит, компания остается в тисках у Nvidia и TSMC. Любой сбой — и тренировка новых моделей встанет. Anthropic, получившая в начале года огромные инвестиции от Sequoia Capital и других, чувствует себя увереннее.
Предупреждение: Юристы отмечают, что если Пентагон все-таки применит Закон о военном производстве против Anthropic, это создаст опасный прецедент. Любая американская tech-компания может лишиться контроля над своими разработками под предлогом «национальной безопасности».
Что теперь? Две реальности, одно будущее
К середине марта 2026 года индустрия раскололась на два лагеря.
- Лагерь «Этиков»: Во главе с Anthropic. Сюда потянулись стартапы, которые делают ставку на прозрачность и доверие. Их аргумент прост: пользователи готовы платить (или предпочитать) тем, кто не играет в игры с автономным оружием. Особенно после скандалов с утечкой военных тестов.
- Лагерь «Прагматиков»: Во главе с OpenAI и рядом других гигантов. Их логика: если мы не будем работать с военными, это сделает кто-то другой, менее скрупулезный. А еще — бюджеты Пентагона огромны, и они могут спасти компанию от финансовой дыры.
Пользователи голосуют очень четко. Ежедневная аудитория Claude бьет рекорды. В OpenAI пытаются тушить пожар в медиа, но утекшие внутренние переписки о «стратегической необходимости» сотрудничества с DoD только подливают масла в огонь.
Ирония в том, что та же самая технология, которую используют для читерства на собеседованиях, теперь решает судьбу глобальной безопасности.
Что делать разработчику, который выбирает, где работать? Смотреть не на зарплату, а на пункт в контракте о военном использовании. Что делать инвестору? Делить портфель между «этиками» и «прагматиками», понимая, что регуляторный удар может прийти в любой момент.
Самый неочевидный совет? Не верьте публичным заявлениям. Изучайте лицензионные соглашения API. Именно там, в мелком шрифте, написано, можно ли использовать модель для того, чтобы следить за вами или выбирать цель для удара. И если там пусто — бегите.