Скандал с Пентагоном и рост Claude: как этика стала преимуществом | AiManual
AiManual Logo Ai / Manual.
06 Мар 2026 Новости

Этика как драйвер роста: как скандал с Пентагоном поднял популярность Claude

Как отказ Anthropic от сотрудничества с Пентагоном из-за принципов привел к взрывному росту пользователей Claude в марте 2026. Факты и цифры.

Этический бунт, который услышали все

Когда в феврале 2026 года стало известно, что Пентагон тайно тестировал Claude для анализа разведданных, в Anthropic нажали красную кнопку. Компания не просто отозвала доступ – она устроила публичный разнос, сославшись на свои конституционные принципы. Мир ждал, что репутация AI-стартапа рухнет. Все получилось с точностью до наоборот.

За первую неделю марта 2026 года ежедневная аудитория Claude выросла на 47%. Загрузки в App Store подскочили на 200%. Это не маркетинг. Это пользователи голосуют за этику.

Скандал, который по всем канонам должен был ударить по доверию, стал лучшим пиар-ходом года. Подробности утечки и тестов Министерства обороны – в нашем материале о целеуказании в военных операциях США.

Цифры, от которых у OpenAI мороз по коже

По данным Sensor Tower на 06.03.2026, Claude вышибил ChatGPT с первого места в категории "Продуктивность" в американском App Store. DAU модели достиг 5.3 миллиона. Для сравнения: у ChatGPT рост за тот же период – жалкие 3%.

Показатель Февраль 2026 Март 2026 Рост
DAU Claude 3.2 млн 5.3 млн +47%
Загрузки Claude (App Store) 500 тыс. 1.5 млн +200%
Рейтинг App Store (США) #15 в Продуктивности #1 в Продуктивности -

Аналитики в один голос твердят: это не спонтанный всплеск. Это системный сдвиг. Пользователи устали от двусмысленной позиции OpenAI по сотрудничеству с военными и готовы платить за четкую этику. Или не платить – ведь базовый Claude 4.6 остается бесплатным.

Что на самом деле взорвалось в Пентагоне?

История началась с утечки внутреннего меморандума. В нем описывалось, как один из подрядчиков Минобороны адаптировал API Claude 4.6 для обработки спутниковых снимков и предложения приоритетных целей. Не для автоматических ударов, но близко к тому.

Anthropic, узнав об этом, не стала вести тихие переговоры. Она опубликовала заявление, где черным по белому написала: "Такое использование противоречит ядру нашей Конституции". Эту самую Конституцию Claude многие считали маркетинговой фикцией. Оказалось, нет.

Пентагон, судя по всему, ожидал стандартных переговоров о цене. Вместо этого получил этическую пощечину в прессе. И это сработало на удивление хорошо.

Пользователи голосуют не только лайками

Соцсети взорвались хештегом #EthicalAI. Но важнее другое: массовая миграция с ChatGPT. Люди качают Claude не только из солидарности. Последняя версия, Claude 4.6, технически обходит конкурента в креативных задачах и анализе длинных документов. Этичность стала вишенкой на торте.

Как правильно переехать, если вы тоже задумались, читайте в нашем полном гайде по миграции с ChatGPT.

  • Принципы как продукт: В эпоху тотальной слежки сказать "нет" Пентагону – сильнейший ход.
  • Качество не пострадало: Блокировки военного применения не сделали Claude тупее. Напротив, разработчики уверяют, что safeguards в 4.6 улучшили логику рассуждений.
  • Эффект Super Bowl: Насмешливая реклама против ChatGPT в феврале подготовила почву. Ирония сработала.

А что ChatGPT? Тишина.

OpenAI, которая давно и плотно работает с Microsoft (а та – с военными), оказалась в неловком молчании. Их этические guidelines размыты, как акварель. Пользователи это заметили. После истории с Пентагоном ChatGPT стал ассоциироваться с "игрой в две стороны".

Anthropic же с самого начала вложилась в образ "безопасного ИИ". И сейчас пожинает плоды. Кстати, их внутренний скандал – Project Panama – о массовом сканировании книг, почему-то не повлиял на репутацию. Видимо, пиратить книги этичнее, чем помогать наводить ракеты.

Что дальше? Этическая гонка вооружений

Этика перестала быть Nice-to-have. Она стала ключевым конкурентным преимуществом. В Anthropic уже анонсировали Claude 5.0 на конец 2026 года с "непреодолимыми" safeguards. Звучит круто, но есть нюанс.

Чрезмерные ограничения могут задушить utility модели. Если Claude начнет отказываться отвечать на безобидные вопросы из "паранойи", пользователи сбегут. Баланс хрупок.

💡
Прогноз: к концу 2026 года все крупные игроки представят свои "этические конституции". Но те, кто сделал это первыми и подтвердил на деле, как Anthropic, получат фору, которую не догнать маркетингом.

Скандал с Пентагоном – не конец истории. Это начало новой эры, где кодекс поведения AI будет влиять на котировки сильнее, чем архитектура модели. Иронично, но факт: чтобы вырасти, иногда нужно просто сказать "нет" самым могущественным людям на планете.

Подписаться на канал