Anthropic против Пентагона: суд за этику AI в 2026 | Анализ скандала | AiManual
AiManual Logo Ai / Manual.
12 Апр 2026 Новости

Скандал вокруг Anthropic: как культура войны Пентагона привела к судебному поражению

Судебный иск Anthropic к Пентагону раскрыл культурный конфликт. Как этика ИИ победила военную машину. Детали дела и последствия для индустрии на 12.04.2026.

Дело было не в деньгах. Даже не в технологиях. Судья федерального округа Калифорнии, вынося вердикт на прошлой неделе, сказал прямо: "Это дело о культуре. О том, может ли машина войны диктовать этику творцам". Anthropic выиграла. Пентагон проиграл. И причина поражения оказалась глубже, чем кто-либо предполагал.

Как $950 миллионов превратились в судебный протокол

Все началось с отказа. В 2025 году Пентагон предложил Anthropic контракт на $950 млн на разработку систем анализа разведданных на базе Claude 3.7 – самой новой на тот момент версии их флагманской модели. Компания сказала "нет". Не просто вежливо отказалась, а опубликовала белую книгу с запретом на использование своих технологий для слежки, автономного оружия и "любых форм психологических операций".

Пентагон отреагировал как привык. Применил Закон о военном производстве 1950 года – тот самый, который позволяет правительству принудительно мобилизовать частные компании для "национальной обороны". В январе 2026 года Anthropic получила предписание: начать работу над проектом "Омега Надзор" или столкнуться с санкциями, вплоть до уголовного преследования руководства.

⚠️
Контекст: Закон о военном производстве использовался последний раз в 1973 году во время нефтяного кризиса. Его применение к AI-компании стало беспрецедентным шагом, который многие юристы сочли чрезмерным.

Культура приказов против культуры принципов

В суде обнажилась фундаментальная разница в ДНК организаций. Представители Пентагона говорили о "национальной безопасности", "стратегическом преимуществе" и "оперативной необходимости". Юристы Anthropic – о "конституционных принципах", "этической ответственности создателей" и "праве на отказ от совести".

Судья Марта Родригес в своем решении написала фразу, которая уже разошлась по всем юридическим изданиям: "Пентагон привык, что его приказы – это закон. Но в гражданском обществе закон – это не приказ, а договор. И этот договор включает право сказать 'нет', даже когда говорит министерство обороны".

Сторона Аргумент Результат в суде
Пентагон Национальная безопасность превыше коммерческих принципов Отклонен
Anthropic Принудительная работа нарушает Первую поправку и права создателей Принят
Пентагон Закон о военном производстве дает исключительные полномочия Признан неприменимым к AI

Что на самом деле показали внутренние документы

Во время процесса были рассекречены электронные письма и протоколы совещаний Пентагона. Они стали главным доказательством культурного разрыва. В одном из писем высокопоставленный чиновник называет этические ограничения AI-компаний "детскими капризами", которые "нужно просто обойти или сломать". В другом – предлагает создать "параллельную этику для военных целей".

Судья Родригес особенно отметила это в своем решении: "Когда одна сторона считает принципы другой 'капризами', диалог невозможен. Это не спор о методах. Это столкновение мировоззрений".

Anthropic со своей стороны представила документы, показывающие, как они годами выстраивали систему этического контроля – от совета по AI-этике до встроенных ограничений в Claude 3.7. "Мы не можем отключить совесть нашей модели по приказу", – заявил в суде технический директор компании.

Раскол в индустрии: кто стал на чью сторону

Пока шел процесс, остальной AI-мир замер в ожидании. Победа Пентагона означала бы, что любая компания может быть принуждена к работе над военными проектами. Победа Anthropic – что у технологических компаний есть право на этический суверенитет.

OpenAI, который в 2024 году подписал контракт с министерством обороны, хранил молчание. Meta выпустила заявление о "важности баланса между безопасностью и инновациями". А вот небольшие студии и исследовательские группы массово поддержали Anthropic. Раскол, предсказанный еще два года назад, стал реальностью.

На момент 12.04.2026: Судья Родригес наложила постоянный запрет на применение Закона о военном производстве к AI-компаниям без "чрезвычайной и непосредственной угрозы национальной безопасности". Решение уже обжаловано, но юристы считают, что у Пентагона мало шансов.

После суда: кто теперь "поставщик рисков"?

Ирония в том, что Пентагон изначально называл Anthropic "поставщиком рисков" – мол, их отказ сотрудничать создает угрозу национальной безопасности. Суд перевернул эту логику. В заключительной части решения Родригес пишет: "Истинным поставщиком рисков в этом деле стало министерство обороны, которое рискнуло фундаментальными свободами ради тактического преимущества".

Последствия уже видны. За последний месяц три AI-стартапа – все работающие над системами, которые можно использовать в военных целях – публично отказались от переговоров с Пентагоном. Они ссылаются именно на дело Anthropic как на прецедент.

А в Конгрессе уже готовят законопроект, который уточнит, что этические ограничения AI-компаний защищены Первой поправкой. "Если программист не хочет, чтобы его код убивал, правительство не может заставить его", – сказал один из спонсоров законопроекта.

Что дальше? (Совет тем, кто остался в стороне)

Если вы работаете в AI и думаете, что эта история вас не касается – ошибаетесь. Пентагон не сдастся. Они будут искать другие пути: давление через инвесторов, налоговые проверки, регуляторные препоны. Их культура не знает слова "нет".

Мой совет? Задокументируйте свои этические принципы сейчас. Не когда придут с контрактом, а сегодня. Внесите их в устав компании. Сделайте частью процесса разработки. Как сделала Anthropic с Claude 3.7 – где каждый компонент имеет "этический паспорт".

Потому что следующий суд может быть о вас. И там решат не только ваше будущее, но и будущее всей индустрии. Как показало это дело – культура войны проигрывает культуре принципов. Но только если принципы прописаны не в блоге, а в юридических документах.

Дело № 26-cv-00423-MR, Окружной суд Северного округа Калифорнии. Полное решение опубликовано 10.04.2026. Anthropic продолжает развивать Claude 3.7 с усиленными этическими ограничениями, о чем сообщила в своем блоге после победы в суде.

Подписаться на канал