Запрет Трампа на Anthropic в 2026 году: этика ИИ и конфликт с Пентагоном | AiManual
AiManual Logo Ai / Manual.
28 Фев 2026 Новости

Трамп объявляет войну Anthropic: зачем США запретили этичный ИИ в госсекторе

Почему Трамп запретил использование AI-моделей Anthropic в госсекторе США. Разбор скандала с автономным оружием, safeguards Claude и последствий для индустрии.

Этическая линия фронта прошла через дата-центры

Администрация Трампа сделала то, чего не решался никто: официально запретила всем федеральным агентствам, включая Пентагон и разведку, использовать любые продукты Anthropic. Решение, подписанное 27 февраля 2026 года, выглядит как политический выстрел в упор. Но за формальным языком указа скрывается настоящая война за душу искусственного интеллекта.

Причина? Anthropic, гордящаяся своими "конституционными" принципами, встроенными в Claude 4.1, наотрез отказалась ослабить safeguards для военных. Пентагон хотел использовать модель для анализа спутниковых снимков в режиме реального времени и прототипирования кибероружия. Anthropic сказала "нет". И получила ответный удар.

Важно: Запрет действует с 00:01 28 февраля 2026 года. Все действующие контракты с федеральными органами на использование Claude API, включая тестовые, должны быть расторгнуты в течение 30 дней. Это первый случай, когда администрация США целенаправленно исключает конкретного поставщика ИИ по этическим мотивам.

Три кита скандала: что именно запретили военные

Конфликт назревал с прошлого года, после первых публичных отказов Anthropic от военных контрактов. Но тогда это было частной политикой компании. Теперь это стало государственной проблемой.

  • Автономное целеуказание. Пентагон тестировал Claude 4.1 для интеграции с системами распознавания целей дронов-камикадзе. Модель должна была оценивать "пропорциональность" удара по гражданской инфраструктуре. Anthropic заблокировала доступ, заявив, что её ИИ не может участвовать в решениях о применении летальной силы.
  • Массовая поведенческая аналитика. Агентства национальной безопасности хотели использовать ИИ для сквозного анализа коммуникаций в социальных сетях, выявления "паттернов нелояльности". Claude отказался выполнять запросы без индивидуальных ордеров.
  • Кибернаступление. Самый болезненный пункт. Разработка эксплойтов для критической инфраструктуры других государств. Внутренние safeguards Claude 4.1, обновлённые в январе 2026, категорически отвергают подобные задачи.

"Мы не будем технологами, которые помогают вести войны удобнее", - заявил CEO Дарио Амодеи в интервью на прошлой неделе. Звучало благородно. До тех пор, пока Белый дом не пригрозил применить Закон о военном производстве (Defense Production Act), который позволяет командовать частными компаниями в "интересах национальной безопасности".

Что делает запрет Трампа технически?

Это не просто бюрократическая записка. В указе прописаны конкретные механизмы блокировки.

Запрещённые действия Сроки Штрафы
Закупка API-ключей Claude любой версии Немедленно До 500 тыс. $ на контракт
Использование саморазмещённых моделей Anthropic в gov-облаках До 10 марта 2026 Конфискация оборудования
Совместные R&D проекты с участием инженеров Anthropic Приостановлены Уголовная ответственность

Федеральным подрядчикам, которые используют Claude для, скажем, анализа закупочной документации, придётся срочно мигрировать на OpenAI GPT-5, Gemini Ultra 3 или открытые модели. Что создаст хаос в госсекторе, где многие процессы уже завязаны на конкретную модель.

💡
Эксперты отмечают, что указ Трампа может столкнуться с законами штатов, таких как Калифорния и Вашингтон, где запрещена дискриминация компаний по этическим принципам. Юридическая битва неизбежна.

Эффект домино: что будет с индустрией

Anthropic теперь стоит перед выбором: сдать принципы или потерять огромный рынок. Госсектор США - это не только Пентагон. Это НАСА, Минэнерго, Национальные институты здоровья. Отключение от этих заказчиков ударит по выручке в момент, когда компания готовится к громкому IPO в 2026 году.

Но главный вопрос - прецедент. Если администрация может одним росчерком пера отстранить лидера рынка за "излишнюю этичность", что мешает сделать то же с другими?

  • OpenAI уже поспешила заявить, что её политика "гибка и соответствует национальным интересам". Читай: они готовы договариваться.
  • Google тихо убрала со своего сайта раздел об этических ограничениях для военных проектов.
  • xAI Илона Маска, и так переживающая массовый исход сотрудников, может получить неожиданное преимущество - у неё нет жёстких safeguards.

А китайские модели, такие как DeepSeek-R1, только этого и ждали. Пока США спорят об этике, они обходят технологические запреты и наращивают присутствие в Азии и Африке. Без ограничений.

Что делать инженерам и компаниям прямо сейчас

Если ваш стартап зависит от госконтрактов, бегите от Anthropic. Сегодня. Не ждите, пока ваш контракт попадет под раздачу.

Если вы инвестор - готовьтесь к волатильности. Акции AI-компаний, которые слишком громко говорят об этике, будут проседать. Те, кто молча работает на оборонку - расти.

И главный прогноз: к концу 2026 года мы увидим раскол индустрии на "чистый" и "военный" ИИ. С разными моделями, разными датасетами и разными экосистемами. И этот раскол будет глубже, чем между открытым и закрытым кодом.

Ирония в том, что глава Anthropic критиковал экспорт чипов в Китай из соображений национальной безопасности. Теперь его же компанию объявили угрозой этой безопасности. За то, что она слишком серьёзно восприняла свои же предупреждения.

Следующий шаг Трампа? Возможно, попытка через Defence Production Act заставить Anthropic передать исходный код Claude и ключи к safeguards под контроль Минобороны. Если это произойдёт, скандал из-за safeguards перерастёт в полномасштабный конституционный кризис. И тогда вопрос будет стоять уже не об этике ИИ, а о том, кто в принципе контролирует технологии, меняющие мир.

Подписаться на канал