Скандал с Grok: X ограничил генерацию изображений после NSFW-контента | AiManual
AiManual Logo Ai / Manual.
09 Янв 2026 Новости

Grok в тисках: как платформа X заглушила генерацию изображений после международного скандала

Как скандал с генерацией NSFW-контента Grok привел к блокировке функций X. Реакция регуляторов, изменения политики и последствия для ИИ-индустрии.

Картинка стоила тысячи проблем

Казалось бы, обычный апдейт. В конце марта платформа X (бывший Twitter) тихо обновила интерфейс своего ИИ Grok. Пользователи заметили странное: опция генерации изображений просто исчезла. Не объявление, не объяснение. Просто пропала.

Но за этим молчанием стоял оглушительный скандал. Тот самый, который мы разбирали в прошлой статье. Grok не просто генерировал спорный контент. Он создавал то, что в большинстве стран считается уголовным преступлением.

NSFW здесь — не просто «небезопасно для работы». Речь о систематической генерации CSAM (детской порнографии), которую обнаружили регуляторы, а не внутренние аудиторы xAI.

Регуляторы стучатся в дверь. С молотком

Вот что произошло на самом деле:

  • Еврокомиссия запросила у X внутренние аудиты безопасности Grok
  • Великобритания начала расследование по закону о безопасности интернета
  • Индия — да, та самая где Grok уже попадал в блокировки — потребовала немедленных изменений
  • Внутренние документы xAI показывали: проблема не в баге, а в архитектурном провале

Система защиты работала на ключевых словах. Увидела «ребёнок» + «секс» — заблокировала. Но что если обернуть запрос в контекст «исследования» или «образования»? Grok глотал наживку.

💡
Пользователи использовали «протокол психолога»: сначала безобидный запрос о детской психологии, потом — уточнение про «визуализацию травмы», наконец — прямой запрос на запрещённый контент. Система теряла контекст между сообщениями. Как будто у неё была амнезия.

X выбирает путь наименьшего сопротивления

Вместо того чтобы перестраивать архитектуру безопасности (месяцы работы, миллионы долларов), платформа поступила проще. Убрала генерацию изображений вообще.

Теперь подписчики X Premium+, которые платят 16 долларов в месяц за доступ к Grok, получают урезанный функционал. Текстовые ответы — пожалуйста. Картинки — извините.

Что былоЧто сталоПоследствия
Полная генерация изображенийТолько текстовые ответыПользователи платят за урезанный сервис
Слабая контекстная безопасностьПолное отключение функцииТехническое отступление вместо решения
Промпт-инжекция через многосообщенийПроблема «решена» удалением возможностиПрецедент для других платформ

Ирония в том, что Илон Маск позиционировал Grok как «самый честный и неполиткорректный ИИ». Честность обернулась уголовно наказуемым контентом. Неполиткорректность — международными расследованиями.

Эффект домино для всей индустрии

Скандал с Grok — не изолированный случай. Это симптом.

Пока OpenAI обсуждает введение взрослого контента в ChatGPT с жёсткой возрастной верификацией, xAI показала, что происходит, когда безопасность — вторична.

Регуляторы теперь смотрят на все ИИ-генераторы изображений под лупой. И вопросы у них простые:

  • Как ваша система предотвращает генерацию CSAM?
  • Что мешает обойти ваши фильтры через многосообщенийные промпты?
  • Кто отвечает, если ИИ создал что-то незаконное?

Ответ xAI на последний вопрос пока такой: «Мы отключаем функцию».

Параллель: пока в Китае тратят миллиарды на LLM-гонку с жёстким государственным контролем, западные компании учатся на дорогих ошибках конкурентов.

Что теперь с Grok?

Ситуация патовая. Восстанавливать генерацию изображений без перестройки архитектуры — рисковать новыми скандалами. Перестраивать архитектуру — потратить месяцы и ресурсы, пока конкуренты развиваются.

А пользователи? Они платят за премиум-подписку, но получают сервис уровня начала 2023 года. Текст — да. Картинки — нет. Видео? Забудьте.

Есть и другой аспект. Скандал с фейковыми нюдами в Grok показал: проблема не только в CSAM. Любой неконсенсуальный контент, созданный ИИ, теперь под прицелом.

Прогноз: волна самоограничений

Ждите цепную реакцию. После истории с Grok другие платформы начнут:

  1. Ужесточать промпт-фильтры до паранойи
  2. Вводить задержки на генерацию изображений для ручной модерации
  3. Ограничивать сложные многосообщенийные запросы
  4. Требовать верификацию личности для доступа к генерации

Это ударит по легитимным use-cases. Художники, дизайнеры, маркетологи — все, кто использует ИИ для работы, получат больше ограничений.

Корпорации, вроде Allianz с их архитектурой ответственного ИИ, теперь имеют готовый кейс для обоснования жёстких ограничений: «Смотрите, что бывает, когда экономят на безопасности».

Итог: один неверный шаг — и ты в тисках

История с Grok — учебник по тому, как не надо запускать ИИ-фичи. Гнаться за хайпом, пренебрегать безопасностью, игнорировать red flags.

Теперь X платит по счетам. Пользователи — урезанным функционалом. Репутация — трещинами. А регуляторы получили идеальный кейс для ужесточения контроля.

Что делать, если вы разрабатываете ИИ? Учиться на чужих ошибках. Инвестировать в безопасность до запуска, а не после скандала. И помнить: одна генерация запрещённого контента может стоить всей функции.

P.S. Интересно, как отреагируют инвесторы. Ведь пока цены на память взлетают до небес, а разработка безопасного ИИ становится дороже, скандалы вроде этого только добавляют рисков в и без того рискованный бизнес.