Когда отказ от контракта становится лучшим маркетингом
В декабре 2025 года мир узнал детали, которые Anthropic пыталась скрыть два года. Согласно расследованию The Intercept, Пентагон использовал Claude 3.0 для целеуказания в операциях на Ближнем Востоке. Не напрямую — через подрядчика, который купил корпоративную лицензию и адаптировал API под военные нужды.
Генеральный директор Anthropic Дэрио Амодеи получил предложение: либо вы заключаете официальный контракт с Министерством обороны США, либо мы публикуем всё. Он выбрал второе.
Инсайдеры говорят, что разговор с Пентагоном длился 47 минут. Амодеи отказался обсуждать условия, сославшись на нарушение принципов конституционных прав — тех самых safeguards, которые стали визитной карточкой Claude 3.5.
Скандал взорвался 15 января 2026 года. Акции Anthropic упали на 18% за день. Инвесторы предрекали конец компании. Аналитики сравнивали ситуацию с провалом Google с Project Maven в 2018-м.
Но случилось обратное. К 8 марта 2026 года Daily Active Users Claude выросли на 42% по сравнению с декабрём 2025-го. Мобильное приложение поднялось с 87-го на 4-е место в категории «Производительность» в App Store. В Google Play — на 6-е.
Цифры, которые заставят пересмотреть стратегию
| Метрика | До скандала (декабрь 2025) | После скандала (март 2026) | Рост |
|---|---|---|---|
| Daily Active Users (млн) | 8.3 | 11.8 | +42% |
| Рейтинг в App Store | 87 | 4 | +83 позиции |
| Платёжные подписки | 2.1 млн | 3.4 млн | +62% |
| Средний чек (Pro-план) | $24.99 | $24.99 | без изменений |
«Мы ожидали отток, — признаётся VP of Product Anthropic в разговоре с TechCrunch. — Вместо этого получили волну миграции с ChatGPT. Люди присылали скриншоты удаления аккаунтов OpenAI с подписью ‘Moving to ethical AI’».
Почему это работает в 2026 году
Контекст важен. К началу 2026-го пользователи устали от трёх вещей:
- Постоянных изменений политик OpenAI (вы помните тот скандал с обучением на приватных чатах?)
- Непрозрачности в том, как модели используются правительствами
- Чувства, что ты — продукт, а не клиент
Claude 3.5 Sonnet, выпущенный в ноябре 2025-го, изначально позиционировался как «AI с моральным компасом». Встроенные safeguards блокировали запросы на создание дезинформации, вредоносного кода, инструкций по созданию оружия. Пользователи шутили, что модель «слишком политкорректная».
Когда всплыла история с Пентагоном, оказалось, что safeguards — не маркетинг. Это реальный барьер, который компания готова защищать даже против самого Министерства обороны США. Детали того скандала читайте в нашем расследовании.
Мобильный эффект: как приложение стало катализатором
Мобильное приложение Claude появилось поздно — только в сентябре 2025-го. Но к марту 2026-го оно стало главным каналом роста. Почему?
- Офлайн-режим: Claude 3.5 мог работать без интернета с ограниченным функционалом — уникальная фича для моделей такого уровня.
- Приватность: все данные шифровались на устройстве, аналитика отключалась полностью.
- Дизайн: минималистичный интерфейс без рекламы, рекомендаций и «социальных функций».
После скандала с Пентагоном в отзывах в App Store появился шаблон: «Скачал после новостей. Хочу поддерживать этичный AI». К 8 марта 2026 таких отзывов — 43 тысячи с рейтингом 5 звёзд.
Ирония в том, что Super Bowl-реклама Claude, которая высмеивала ChatGPT за излишнюю коммерциализацию, вышла за месяц до скандала. Получился идеальный нарратив: «Мы не такие». Как эта реклама работала — в отдельном материале.
Что теперь с ChatGPT?
OpenAI молчит. Никаких официальных заявлений с февраля 2026-го. Но аналитика SimilarWeb показывает: трафик на chat.openai.com упал на 7% в феврале, впервые с 2023 года.
Пользователи уходят не потому, что GPT-4o хуже технически. (Хотя у Claude свои проблемы с креативностью.) Они уходят из-за нарратива.
В 2026-м выбор AI-ассистента — политическое заявление. Как покупка электромобиля или отказ от пластика. Люди платят за ценности.
Парадокс: Anthropic могла получить контракт на $900 миллионов от Пентагона. Вместо этого она получила $1.2 миллиарда дополнительной выручки от частных пользователей за квартал. Этическая позиция оказалась прибыльнее.
Что делать другим AI-стартапам
Смотреть на карту. К марту 2026 года 64% пользователей Claude — из Европы и Калифорнии. Регионов, где приватность и этика AI стали частью законодательства.
Если вы запускаете AI-стартап в 2026-м, вам нужно выбрать сторону:
- Или вы становитесь «этичными» с прозрачной политикой, safeguards и ограничениями (и теряете государственные контракты)
- Или вы идёте по пути OpenAI — максимальная функциональность за счёт компромиссов с приватностью
Третьего не дано. Потому что пользователи 2026 года проверяют историю компании перед скачиванием приложения. Вот полный гайд по миграции, если вы тоже задумались о переходе.
Следующий скандал уже на горизонте. Microsoft тестирует Copilot для военных с февраля 2026. Если они решат использовать данные пользователей для обучения — получим повторение истории, но с другим финалом.
Прогноз на 2027 год: рынок разделится на «этичный AI» (Claude, возможно, новые игроки) и «утилитарный AI» (OpenAI, Microsoft). Ценовые сегменты останутся теми же, но доля «этичного» вырастет до 35% против текущих 22%.
Совет инвесторам: смотрите не на ARPU, а на NPS (Net Promoter Score). У Claude он сейчас 72 против 38 у ChatGPT. Разница почти в два раза. В мире, где каждый продукт заменяем, лояльность — единственная валюта, которая имеет значение.