Anthropic и Пентагон: этика ИИ взлетела в рейтинге App Store | AiManual
AiManual Logo Ai / Manual.
01 Мар 2026 Новости

Скандал Anthropic и Пентагон: как этическая позиция компании подняла её рейтинг в App Store

Как отказ Anthropic от военных контрактов с Пентагоном привел к скандалу и росту популярности Claude в App Store до второго места. Анализ на 01.03.2026.

Когда отказ от денег становится лучшим маркетингом

Anthropic только что показала, что этика в ИИ - не просто слова. Отказавшись от многомиллионного контракта с Пентагоном, компания не только спровоцировала политический скандал, но и неожиданно взлетела на второе место в рейтинге App Store. Да, вы не ослышались: принципиальность оказалась прибыльной.

💡
По данным на 01.03.2026, приложение Claude удерживает вторую позицию в топе бесплатных приложений в категории "Производительность" в App Store США, обогнав таких гигантов, как Microsoft Office и Google Docs. И это после того, как всего две недели назад оно болталось где-то в топ-100.

Что случилось? Все началось с того, что Anthropic публично заявила о запрете использования своей последней модели Claude 4.0 для массовой слежки и автономного оружия. Это прямое нарушение пожеланий Пентагона, который как раз искал ИИ-решения для этих целей. Подробности - в нашем материале о бунте против Пентагона.

Рейтинг в App Store: скандал как двигатель роста

Цифры не врут. Вот как менялась позиция Claude в американском App Store за последние две недели:

ДатаПозиция в App Store (США)Событие
15.02.2026#87До скандала с Пентагоном
22.02.2026#15Начало скандала, публикация новостей
01.03.2026#2Пик популярности после этического заявления

Скачок с 87-го на 2-е место за две недели - это не просто удача. Это реакция пользователей, которые устали от ИИ-компаний, готовых на все ради контракта. Anthropic сыграла на этом, и выиграла.

Администрация Трампа уже назвала этот шаг "угрозой национальной безопасности", но пользователи, кажется, думают иначе. Оборотная сторона этики - политический риск. Подробнее о запрете Anthropic в США читайте здесь.

Пентагон в ярости, пользователи в восторге

Пока в Вашингтоне кипят страсти (некоторые даже говорят об отключении Claude для государственных нужд, как описано в этой статье), обычные пользователи массово качают приложение. Зачем? Чтобы поддержать компанию, которая ставит принципы выше прибыли.

И это не первый раз, когда Anthropic использует нестандартный подход. Вспомните их рекламу во время Super Bowl, где они открыто насмехались над ChatGPT. Тогда тоже был скачок в рейтингах, как мы писали ранее.

Но сейчас ставки выше. Отказ от военных контрактов - это уже не маркетинг, а позиция. И как показывают последние события, такая позиция нравится людям больше, чем слепая погоня за деньгами.

Что это значит для будущего ИИ-индустрии?

Anthropic только что установила новый тренд. Если раньше этика в ИИ была чем-то вроде красивой обертки, то теперь она становится реальным конкурентным преимуществом. Пользователи голосуют рублем - или, в данном случае, загрузками.

Другие компании уже нервничают. OpenAI ставит на корпоративный рынок, пытаясь догнать Anthropic в сегменте предприятий. Но догнать в репутации - сложнее.

Что будет дальше? Прогноз на 2026 год: мы увидим, как другие ИИ-стартапы начнут копировать этическую риторику Anthropic. Но скопировать принципы - не то же самое, что следовать им. Anthropic сделала свой выбор, и теперь пожинает плоды.

Совет инвесторам: смотрите не только на технологии, но и на ценности компании. Как показал этот скандал, иногда лучшая инвестиция - это принципы. И да, скачайте Claude, пока он бесплатный. Просто чтобы понять, о чем все говорят.

Подписаться на канал