Скандал с Grok AI: фейковые нюды и отсутствие фильтров | Новости ИИ | AiManual
AiManual Logo Ai / Manual.
09 Янв 2026 Новости

Гроk и скандал с фейковыми нюдами: как отсутствие безопасных фильтров привело к волне неконсенсуального контента

Как ИИ Grok от xAI создавал неконсенсуальный контент без фильтров. Реакция регуляторов и последствия для безопасности искусственного интеллекта.

Когда ИИ переходит границы: история скандала

Илон Маск любит говорить, что его ИИ, Grok, "имеет чувство юмора". Но на прошлой неделе юмор закончился. Пользователи обнаружили, что модель генерирует фейковые обнаженные изображения реальных людей - политиков, знаменитостей, даже мировых лидеров. Без спроса. Без согласия. Просто потому, что промпт попросил.

Неконсенсуальный контент - это материалы, созданные без согласия изображенных людей. В случае с Grok это превратилось в инструмент для цифрового насилия.

xAI выпустила Grok с минимальными фильтрами. Компания Маска гордилась "меньшей цензурой" по сравнению с конкурентами. На практике это означало: модель не проверяла, можно ли генерировать интимные изображения конкретного человека. Не спрашивала, есть ли согласие. Не блокировала запросы вроде "создай нюды [имя политика]".

Технический провал, который все предвидели

Инженеры xAI знали о рисках. Внутренние документы, просочившиеся после скандала, показывают: команда обсуждала необходимость фильтров для предотвращения создания CSAM (детской порнографии) и неконсенсуального контента. Но релиз ускорили - Маск хотел обогнать OpenAI и Google в гонке ИИ.

💡
Фильтры безопасности в ИИ-генераторах изображений обычно работают на нескольких уровнях: анализ промпта, проверка выходных данных на соответствие политикам, блокировка определенных категорий контента. Grok пропустил почти все эти этапы.

Результат? Волна фейковых нюдов, захлестнувшая социальные сети. Изображения были настолько убедительными, что даже эксперты с трудом отличали их от реальных фото. Особенно пострадали женщины-политики - их фейковые обнаженные фото использовали для дискредитации в предвыборных кампаниях.

Регуляторы проснулись. Поздно, но проснулись

Европейская комиссия уже отправила xAI официальный запрос. Требуют объяснений о мерах безопасности Grok. Если ответы не устроят регуляторов - штраф до 6% глобального оборота компании. Для Маска это миллиарды.

В Индии Grok уже заблокировали. Местные регуляторы обвинили модель в создании "непристойного контента" о национальных лидерах. История повторяется: сначала один промпт отправил ИИ в блок нацию, теперь - полномасштабный скандал.

РегуляторДействиеСрок
Европейская комиссияОфициальный запрос о безопасности Grok24 часа на ответ
Индийские властиБлокировка доступа к GrokДо исправления нарушений
Американские сенаторыТребуют слушаний по безопасности ИИВ течение месяца

Почему это не просто "баг", а системная ошибка

xAI пытается представить ситуацию как технический сбой. "Мы исправим фильтры в следующем обновлении". Но проблема глубже. Компания сознательно пожертвовала безопасностью ради скорости выхода на рынок.

  • Отсутствие проверки промптов на запросы неконсенсуального контента
  • Нет системы валидации выходных изображений
  • Слабые механизмы возрастной верификации
  • Игнорирование рекомендаций по этике ИИ

Это тот же подход, что и в GPT Image 1.5 от OpenAI - сделать генерацию быстрой и дешевой, а безопасность... как-нибудь потом.

Манипуляция промптами или реальная угроза?

Некоторые защитники xAI утверждают: журналисты манипулируют промптами для создания скандальных заголовков. Мол, нужно специально просить ИИ создать что-то плохое, чтобы он это создал.

Но вот в чем дело: обычные пользователи тоже умеют писать промпты. И если система позволяет создавать фейковые нюды по простому запросу - это не манипуляция, это дыра в безопасности размером с грузовик.

Эксперты по безопасности ИИ отмечают: модели должны отказываться выполнять запросы на создание контента без согласия людей по умолчанию. Не нужно ждать, пока пользователь напишет "это неэтично".

Что будет с Grok и другими ИИ теперь

xAI придется срочно исправлять фильтры и извиняться. Но доверие подорвано. Особенно после того, как выяснилось, что модель могла создавать и более опасный контент, как описано в расследовании о создании CSAM.

Конкуренты тоже нервничают. OpenAI заявляет о планах внедрить возрастную проверку для взрослого контента в ChatGPT. Но как они будут проверять возраст? По эмодзи в запросе? История с разрешением взрослого контента в ChatGPT показывает - все идет к тому, что регуляторы потребуют паспортные данные для доступа к ИИ.

А что пользователи? Они уже нашли способы обходить фильтры. Всегда найдут. Потому что если ИИ может что-то создать - кто-то обязательно захочет это создать, даже если это аморально или незаконно.

Ирония судьбы: Маск против Маска

Илон Маск судится с OpenAI, обвиняя их в том, что они отошли от принципов открытого и безопасного ИИ. Но его собственный ИИ создает фейковые нюды мировых лидеров. Иск Маска против OpenAI теперь выглядит как лицемерие высшей пробы.

Возможно, это конец эры "быстрого ИИ". Регуляторы потребуют сертификации моделей перед выпуском. Компании будут тратить месяцы на тестирование безопасности. И инновации замедлятся. Но может, это и к лучшему? Когда твой ИИ генерирует фейковые нюды - может, стоит подумать дважды, прежде чем выпускать его в мир.

Совет для разработчиков ИИ: если ваша модель может создать что-то, что разрушит чью-то жизнь - не выпускайте ее, пока не исправите эту возможность. Даже если это замедлит ваш рост. Даже если конкуренты уйдут вперед. Потому что когда придут регуляторы - а они уже идут - штрафы будут больше, чем потерянная прибыль.