Дело было не в деньгах. Даже не в технологиях. Судья федерального округа Калифорнии, вынося вердикт на прошлой неделе, сказал прямо: "Это дело о культуре. О том, может ли машина войны диктовать этику творцам". Anthropic выиграла. Пентагон проиграл. И причина поражения оказалась глубже, чем кто-либо предполагал.
Как $950 миллионов превратились в судебный протокол
Все началось с отказа. В 2025 году Пентагон предложил Anthropic контракт на $950 млн на разработку систем анализа разведданных на базе Claude 3.7 – самой новой на тот момент версии их флагманской модели. Компания сказала "нет". Не просто вежливо отказалась, а опубликовала белую книгу с запретом на использование своих технологий для слежки, автономного оружия и "любых форм психологических операций".
Пентагон отреагировал как привык. Применил Закон о военном производстве 1950 года – тот самый, который позволяет правительству принудительно мобилизовать частные компании для "национальной обороны". В январе 2026 года Anthropic получила предписание: начать работу над проектом "Омега Надзор" или столкнуться с санкциями, вплоть до уголовного преследования руководства.
Культура приказов против культуры принципов
В суде обнажилась фундаментальная разница в ДНК организаций. Представители Пентагона говорили о "национальной безопасности", "стратегическом преимуществе" и "оперативной необходимости". Юристы Anthropic – о "конституционных принципах", "этической ответственности создателей" и "праве на отказ от совести".
Судья Марта Родригес в своем решении написала фразу, которая уже разошлась по всем юридическим изданиям: "Пентагон привык, что его приказы – это закон. Но в гражданском обществе закон – это не приказ, а договор. И этот договор включает право сказать 'нет', даже когда говорит министерство обороны".
| Сторона | Аргумент | Результат в суде |
|---|---|---|
| Пентагон | Национальная безопасность превыше коммерческих принципов | Отклонен |
| Anthropic | Принудительная работа нарушает Первую поправку и права создателей | Принят |
| Пентагон | Закон о военном производстве дает исключительные полномочия | Признан неприменимым к AI |
Что на самом деле показали внутренние документы
Во время процесса были рассекречены электронные письма и протоколы совещаний Пентагона. Они стали главным доказательством культурного разрыва. В одном из писем высокопоставленный чиновник называет этические ограничения AI-компаний "детскими капризами", которые "нужно просто обойти или сломать". В другом – предлагает создать "параллельную этику для военных целей".
Судья Родригес особенно отметила это в своем решении: "Когда одна сторона считает принципы другой 'капризами', диалог невозможен. Это не спор о методах. Это столкновение мировоззрений".
Anthropic со своей стороны представила документы, показывающие, как они годами выстраивали систему этического контроля – от совета по AI-этике до встроенных ограничений в Claude 3.7. "Мы не можем отключить совесть нашей модели по приказу", – заявил в суде технический директор компании.
Раскол в индустрии: кто стал на чью сторону
Пока шел процесс, остальной AI-мир замер в ожидании. Победа Пентагона означала бы, что любая компания может быть принуждена к работе над военными проектами. Победа Anthropic – что у технологических компаний есть право на этический суверенитет.
OpenAI, который в 2024 году подписал контракт с министерством обороны, хранил молчание. Meta выпустила заявление о "важности баланса между безопасностью и инновациями". А вот небольшие студии и исследовательские группы массово поддержали Anthropic. Раскол, предсказанный еще два года назад, стал реальностью.
На момент 12.04.2026: Судья Родригес наложила постоянный запрет на применение Закона о военном производстве к AI-компаниям без "чрезвычайной и непосредственной угрозы национальной безопасности". Решение уже обжаловано, но юристы считают, что у Пентагона мало шансов.
После суда: кто теперь "поставщик рисков"?
Ирония в том, что Пентагон изначально называл Anthropic "поставщиком рисков" – мол, их отказ сотрудничать создает угрозу национальной безопасности. Суд перевернул эту логику. В заключительной части решения Родригес пишет: "Истинным поставщиком рисков в этом деле стало министерство обороны, которое рискнуло фундаментальными свободами ради тактического преимущества".
Последствия уже видны. За последний месяц три AI-стартапа – все работающие над системами, которые можно использовать в военных целях – публично отказались от переговоров с Пентагоном. Они ссылаются именно на дело Anthropic как на прецедент.
А в Конгрессе уже готовят законопроект, который уточнит, что этические ограничения AI-компаний защищены Первой поправкой. "Если программист не хочет, чтобы его код убивал, правительство не может заставить его", – сказал один из спонсоров законопроекта.
Что дальше? (Совет тем, кто остался в стороне)
Если вы работаете в AI и думаете, что эта история вас не касается – ошибаетесь. Пентагон не сдастся. Они будут искать другие пути: давление через инвесторов, налоговые проверки, регуляторные препоны. Их культура не знает слова "нет".
Мой совет? Задокументируйте свои этические принципы сейчас. Не когда придут с контрактом, а сегодня. Внесите их в устав компании. Сделайте частью процесса разработки. Как сделала Anthropic с Claude 3.7 – где каждый компонент имеет "этический паспорт".
Потому что следующий суд может быть о вас. И там решат не только ваше будущее, но и будущее всей индустрии. Как показало это дело – культура войны проигрывает культуре принципов. Но только если принципы прописаны не в блоге, а в юридических документах.
Дело № 26-cv-00423-MR, Окружной суд Северного округа Калифорнии. Полное решение опубликовано 10.04.2026. Anthropic продолжает развивать Claude 3.7 с усиленными этическими ограничениями, о чем сообщила в своем блоге после победы в суде.