Вчерашний герой open-source сообщества, AI-агент OpenClaw, оказался карточным домиком. Расследование, завершенное 2 марта 2026 года, показало: весь хайп вокруг проекта был сфабрикован с помощью армии ботов и манипулятивных техник, известных как астросёрфинг.
Астросёрфинг в AI: когда боты говорят за вас
Термин "астросёрфинг" пришел из политических технологий - это практика создания ложной поддержки с помощью фейковых аккаунтов. В мире AI это приняло новый размах. Вместо реальных пользователей - сотни скриптов, имитирующих активность: звезды на GitHub, восторженные отзывы на форумах, искусственные обсуждения в Twitter и Reddit.
Астросёрфинг не просто накручивает метрики. Он создает иллюзию востребованности, которая заставляет реальных разработчиков тратить время на несуществующие проблемы.
Схема OpenClaw: как создавали иллюзию популярности
В случае OpenClaw, механизм был отлажен как швейцарские часы. Автоматические скрипты ежечасно создавали issues в репозитории, генерировали "пользовательские" вопросы на Stack Overflow, и даже организовывали фейковые митапы в сообществе.
- GitHub Stars: 85% из 12,000 звезд были накручены через бот-сети
- Discord сообщество: 70% участников - неактивные или бот-аккаунты
- Hacker News: 5 топовых постов за 2025 год оказались платными размещениями
Ирония в том, что пока OpenClaw создавал шумиху, его реальная безопасность трещала по швам. Как мы писали ранее, базовые уязвимости prompt injection оставались неисправленными месяцами.
Доказательства: цифры, которые не врут
Аналитики из AI Security Watch обнаружили аномалии еще в январе 2026. Пики активности в репозитории приходились на 3:00 по UTC, когда реальные разработчики спали. География коммитов показывала запросы с серверов, а не с персональных компьютеров.
| Метрика | Заявлено | Реально |
|---|---|---|
| Активные контрибьютеры | 150+ | 12 |
| Ежедневные установки | 5,000 | ~300 |
| Пользователей в Production | "сотни компаний" | 3 известных кейса |
Самый вопиющий факт: 90% "успешных кейсов использования" из маркетинговых материалов оказались сгенерированы с помощью GPT-4.5 (последняя версия на март 2026). Реальные пользователи сталкивались с багами, которые игнорировались месяцами.
Этический провал: почему сообщество взбешено
Open-source всегда строился на доверии. Астросёрфинг OpenClaw подрывает сами основы. Разработчики тратили недели на интеграцию с агентом, который имел фундаментальные проблемы с безопасностью.
Что хуже: некоторые подозревают, что команда OpenClaw знала о несостоятельности продукта с самого начала. Зачем тогда хайп? Ответ прост: привлечь инвестиции или выгодно продаться. Что, собственно, и произошло - OpenAI купила OpenClaw в конце 2025, прямо перед тем, как вскрылись манипуляции.
Что дальше: последствия для open-source
После разоблачения, доверие к новым AI-проектам упадет. Сообщество будет требовать прозрачности: аудиты активности, верификацию пользователей, открытые метрики.
Платформы вроде GitHub и Hugging Face уже анонсировали новые системы обнаружения астросёрфинга на базе LLM, которые анализируют паттерны поведения. Но это гонка вооружений: создатели ботов тоже используют AI.
Совет для разработчиков в 2026: скептически относитесь к резкому взлету популярности. Проверяйте, кто стоит за проектом. И помните, что настоящие инструменты решают реальные проблемы, а не создают шум.
OpenClaw теперь станет кейсом-предупреждением. Но сколько еще таких проектов скрываются за красивой графикой и накрученными звездами?