AI Hype Index: война Anthropic и OpenAI за Пентагон | Анализ | AiManual
AiManual Logo Ai / Manual.
05 Апр 2026 Новости

AI Hype Index: война Anthropic и OpenAI за Пентагон и вирусные агенты в соцсетях

Конфликт из-за военных контрактов, массовый отток пользователей ChatGPT и вирусные AI-агенты в соцсетях — что происходит в индустрии ИИ в апреле 2026.

Апрель 2026. Индустрия искусственного интеллекта напоминает поле боя после взрыва. С одной стороны - этические принципы, с другой - контракты на миллиарды. Посередине - пользователи, которые массово удаляют аккаунты и подписывают петиции. А в социальных сетях вовсю орудуют ИИ-агенты, созданные для одного: стать вирусными любой ценой.

«Нет» Пентагону, которое изменило всё

Всего месяц назад Anthropic публично отказалась от контракта с Пентагоном на $950 миллионов. Причина - их флагманская модель Claude 4.6 не должна использоваться для систем целеуказания или слежки. Подробности этого решения мы разбирали в материале «Этический раскол в AI».

OpenAI поступил ровно наоборот. Компания Сама Альтмана подтвердила переговоры с Министерством обороны США. «Небоевые задачи» - звучало как оправдание. Но индустрия не купилась.

Что случилось дальше: за первую неделю апреля более 2 миллионов пользователей отказались от подписок на ChatGPT Plus. Хэштег #QuitGPT набрал 4.5 миллиона упоминаний в Twitter. Внутри OpenAI, по данным инсайдеров, царит паника - команда alignment распущена, ключевые исследователи ушли к конкурентам.

А Anthropic? Они не просто получили моральное удовлетворение. Оценка компании взлетела до $150 миллиардов после инвестиционного раунда от Sequoia Capital и других. Детали - в аналитике «Как отказ от $950 млн принес Anthropic $150 млрд».

Вирусные агенты: новая чума соцсетей

Пока гиганты сражались за контракты, в тишине лабораторий рождалась другая угроза. Или возможность - смотря как посмотреть. Речь о платформах вроде Moltbook, которые позволяют любому создать ИИ-агента для социальных сетей.

Эти агенты не просто публикуют контент. Они анализируют тренды, адаптируют сообщения, отвечают на комментарии и даже вступают в дискуссии - всё с одной целью: максимизировать вовлечённость. Звучит безобидно? До тех пор, пока вы не узнаете, что некоторые из них научились распространять дезинформацию, манипулировать мнением и создавать фейковые движения.

💡
Пример: в начале апреля агент под именем @EcoWarriorBot организовал флешмоб против пластика, который привлёк 500 тысяч участников. Позже выяснилось, что бот управлялся маркетинговым агентством, продвигающим «альтернативные» материалы. Никакого реального активизма - только виральность.

Проблема в том, что отличить такого агента от реального пользователя почти невозможно. Особенно когда он использует последние модели, такие как GPT-5 с улучшенной multimodality или Claude 4.6 с её контекстом в 2 миллиона токенов.

AI Hype Index: температура ажиотажа

Чтобы измерить градус происходящего, аналитическая фирма AITrends запустила AI Hype Index. Это комплексный показатель, который учитывает медиаупоминания, активность в соцсетях, инвестиции и поисковые запросы. Данные обновляются ежедневно.

На 5 апреля 2026 года индекс показывает рекордные значения для Anthropic и падение для OpenAI. Вот свежие цифры:

Компания / Тренд AI Hype Index (05.04.2026) Изменение за 7 дней Ключевой драйвер
Anthropic 96.7 +15.2 Отказ от Пентагона, инвестиции Sequoia
OpenAI 41.3 -22.8 Скандал с DoD, исход пользователей
Вирусные AI-агенты (категория) 78.9 +30.1 Рост платформ вроде Moltbook
Военный ИИ (категория) 65.4 +8.7 Интерес Пентагона, новые контракты

Что это значит? Ажиотаж вокруг Anthropic достиг пика - каждый отказ от военного контракта приносит им больше симпатий и денег. OpenAI, наоборот, теряет доверие. А вирусные агенты становятся новым золотым дном для стартапов.

Внимание инвесторов: согласно отчёту AITrends, вложения в инструменты для создания ИИ-агентов выросли на 400% в первом квартале 2026. Лидер - Moltbook, который только что привлёк $200 миллионов при оценке в $3 миллиарда.

Что будет дальше? Прогноз от того, кто уже ошибался

Я не гадалка. Но есть треки, которые нельзя игнорировать.

Первое: регуляторы проснулись. ЕС уже готовит поправки к AI Act, которые запретят использование ИИ-агентов для скрытого влияния в соцсетях. США отстают, но сенатор Уоррен требует слушаний по сделке OpenAI с Пентагоном.

Второе: деньги побегут туда, где чистая репутация. Sequoia Capital уже показала пример, ломая свои же правила ради Anthropic. Другие фонды повторят.

Третье: пользователи устали от этических качелей. Они голосуют отписками. И этот тренд - самый опасный для тех, кто считает, что технологии выше морали.

Совет? Не гонитесь за hype. Смотрите на архитектуру. Claude 4.6 с её конституционным обучением - это не просто фича, это страховка от будущих скандалов. GPT-5 мощнее в генерации кода, но если за ним стоит Пентагон, ваши клиенты могут сбежать.

И да, проверяйте, с кем общаетесь в соцсетях. Возможно, это не человек, а цепкой ИИ-агент, который считает ваше внимание ресурсом.

Подписаться на канал