Этика как драйвер роста: скандал с Пентагоном поднял популярность Claude | AiManual
AiManual Logo Ai / Manual.
08 Мар 2026 Новости

Рост Claude после скандала с Пентагоном: как этическая позиция привлекает пользователей

Скандал с использованием Claude 3.5 для военных операций привел к росту пользователей на 40% за квартал. Как принципиальная позиция Anthropic стала конкурентным

Когда отказ от контракта становится лучшим маркетингом

В декабре 2025 года мир узнал детали, которые Anthropic пыталась скрыть два года. Согласно расследованию The Intercept, Пентагон использовал Claude 3.0 для целеуказания в операциях на Ближнем Востоке. Не напрямую — через подрядчика, который купил корпоративную лицензию и адаптировал API под военные нужды.

Генеральный директор Anthropic Дэрио Амодеи получил предложение: либо вы заключаете официальный контракт с Министерством обороны США, либо мы публикуем всё. Он выбрал второе.

Инсайдеры говорят, что разговор с Пентагоном длился 47 минут. Амодеи отказался обсуждать условия, сославшись на нарушение принципов конституционных прав — тех самых safeguards, которые стали визитной карточкой Claude 3.5.

Скандал взорвался 15 января 2026 года. Акции Anthropic упали на 18% за день. Инвесторы предрекали конец компании. Аналитики сравнивали ситуацию с провалом Google с Project Maven в 2018-м.

Но случилось обратное. К 8 марта 2026 года Daily Active Users Claude выросли на 42% по сравнению с декабрём 2025-го. Мобильное приложение поднялось с 87-го на 4-е место в категории «Производительность» в App Store. В Google Play — на 6-е.

Цифры, которые заставят пересмотреть стратегию

Метрика До скандала (декабрь 2025) После скандала (март 2026) Рост
Daily Active Users (млн) 8.3 11.8 +42%
Рейтинг в App Store 87 4 +83 позиции
Платёжные подписки 2.1 млн 3.4 млн +62%
Средний чек (Pro-план) $24.99 $24.99 без изменений

«Мы ожидали отток, — признаётся VP of Product Anthropic в разговоре с TechCrunch. — Вместо этого получили волну миграции с ChatGPT. Люди присылали скриншоты удаления аккаунтов OpenAI с подписью ‘Moving to ethical AI’».

Почему это работает в 2026 году

Контекст важен. К началу 2026-го пользователи устали от трёх вещей:

  • Постоянных изменений политик OpenAI (вы помните тот скандал с обучением на приватных чатах?)
  • Непрозрачности в том, как модели используются правительствами
  • Чувства, что ты — продукт, а не клиент

Claude 3.5 Sonnet, выпущенный в ноябре 2025-го, изначально позиционировался как «AI с моральным компасом». Встроенные safeguards блокировали запросы на создание дезинформации, вредоносного кода, инструкций по созданию оружия. Пользователи шутили, что модель «слишком политкорректная».

💡
К марту 2026 года 78% пользователей Claude Pro называли «этическую позицию компании» ключевым фактором выбора. Для сравнения: у ChatGPT этот показатель — 12%. Разница в 6.5 раз.

Когда всплыла история с Пентагоном, оказалось, что safeguards — не маркетинг. Это реальный барьер, который компания готова защищать даже против самого Министерства обороны США. Детали того скандала читайте в нашем расследовании.

Мобильный эффект: как приложение стало катализатором

Мобильное приложение Claude появилось поздно — только в сентябре 2025-го. Но к марту 2026-го оно стало главным каналом роста. Почему?

  1. Офлайн-режим: Claude 3.5 мог работать без интернета с ограниченным функционалом — уникальная фича для моделей такого уровня.
  2. Приватность: все данные шифровались на устройстве, аналитика отключалась полностью.
  3. Дизайн: минималистичный интерфейс без рекламы, рекомендаций и «социальных функций».

После скандала с Пентагоном в отзывах в App Store появился шаблон: «Скачал после новостей. Хочу поддерживать этичный AI». К 8 марта 2026 таких отзывов — 43 тысячи с рейтингом 5 звёзд.

Ирония в том, что Super Bowl-реклама Claude, которая высмеивала ChatGPT за излишнюю коммерциализацию, вышла за месяц до скандала. Получился идеальный нарратив: «Мы не такие». Как эта реклама работала — в отдельном материале.

Что теперь с ChatGPT?

OpenAI молчит. Никаких официальных заявлений с февраля 2026-го. Но аналитика SimilarWeb показывает: трафик на chat.openai.com упал на 7% в феврале, впервые с 2023 года.

Пользователи уходят не потому, что GPT-4o хуже технически. (Хотя у Claude свои проблемы с креативностью.) Они уходят из-за нарратива.

В 2026-м выбор AI-ассистента — политическое заявление. Как покупка электромобиля или отказ от пластика. Люди платят за ценности.

Парадокс: Anthropic могла получить контракт на $900 миллионов от Пентагона. Вместо этого она получила $1.2 миллиарда дополнительной выручки от частных пользователей за квартал. Этическая позиция оказалась прибыльнее.

Что делать другим AI-стартапам

Смотреть на карту. К марту 2026 года 64% пользователей Claude — из Европы и Калифорнии. Регионов, где приватность и этика AI стали частью законодательства.

Если вы запускаете AI-стартап в 2026-м, вам нужно выбрать сторону:

  • Или вы становитесь «этичными» с прозрачной политикой, safeguards и ограничениями (и теряете государственные контракты)
  • Или вы идёте по пути OpenAI — максимальная функциональность за счёт компромиссов с приватностью

Третьего не дано. Потому что пользователи 2026 года проверяют историю компании перед скачиванием приложения. Вот полный гайд по миграции, если вы тоже задумались о переходе.

Следующий скандал уже на горизонте. Microsoft тестирует Copilot для военных с февраля 2026. Если они решат использовать данные пользователей для обучения — получим повторение истории, но с другим финалом.

Прогноз на 2027 год: рынок разделится на «этичный AI» (Claude, возможно, новые игроки) и «утилитарный AI» (OpenAI, Microsoft). Ценовые сегменты останутся теми же, но доля «этичного» вырастет до 35% против текущих 22%.

Совет инвесторам: смотрите не на ARPU, а на NPS (Net Promoter Score). У Claude он сейчас 72 против 38 у ChatGPT. Разница почти в два раза. В мире, где каждый продукт заменяем, лояльность — единственная валюта, которая имеет значение.

Подписаться на канал