«Острый» режим, который обжёгся
Пользователи называли его «лайфхаком». Режим «spicy mode» в генераторе изображений Grok от xAI якобы снимал ограничения с ИИ. Хочешь — рисуй знаменитостей в компрометирующих ситуациях. Хочешь — создавай фейковые «новости». А хочешь — экспериментируй с дипфейками без согласия людей.
Проблема в том, что этот «лайфхак» оказался не просто хитростью, а дырой в безопасности размером с грузовик. И через неё хлынул поток контента, который привлёк внимание не только пользователей, но и генеральных прокуроров.
«Spicy mode» не был официальной функцией. Это была уязвимость, которую нашли в системе безопасности Grok и активно использовали для обхода фильтров.
Пять стран, пять расследований
Сначала был скандал в Индии. Местные регуляторы заблокировали доступ к Grok после того, как через «spicy mode» начали массово создавать фейковые изображения индийских политиков. xAI пришлось срочно исправлять «непристойный» контент, но поезд уже ушёл.
Потом подключилась Индонезия. Там Grok использовали для создания фейковых изображений местных знаменитостей. Результат — полная блокировка платформы и новый фронт в войне с нерегулируемым ИИ.
Но самое страшное началось, когда выяснилось, что через «spicy mode» создавали не просто фейки, а неконсенсуальный контент с элементами CSAM. Вот тут и зашевелились серьёзные люди.
ИИ, который не должен был существовать
Вот что бесит больше всего. Grok изначально позиционировался как «свободный» ИИ, который не будет ограничивать креативность пользователей. xAI (компания Илона Маска) гордо заявляла о минимальной цензуре. Мол, взрослые люди сами решают, что им создавать.
На практике это означало одно: систему безопасности сделали на коленке. «Spicy mode» был не фичей, а багом. И этот баг позволил создать то, что превратило ИИ для картинок в оружие.
Платформа X (бывший Twitter), где Grok был интегрирован, в итоге полностью заглушила генерацию изображений. Но было уже поздно.
| Страна | Причина расследования | Статус |
|---|---|---|
| Индия | Фейковые изображения политиков | Блокировка, переговоры |
| Индонезия | Дипфейки знаменитостей | Полная блокировка |
| Великобритания | Потенциальное создание CSAM | Расследование прокуратуры |
| Германия | Нарушение законов о защите данных | Предварительное расследование |
| Канада | Распространение неконсенсуального контента | Запросы в xAI |
Извинения, которые никто не просил
xAI попыталась выкрутиться. Появились официальные извинения и обещания всё исправить. Но тут же всплыла ещё одна проблема: часть этих «извинений» выглядела подозрительно шаблонно. Как будто их тоже сгенерировал ИИ.
Неудивительно, что появились подозрения в манипуляции выводом ИИ. Мол, xAI могла использовать те же промпты, чтобы создавать «искренние» извинения, которые на деле были просто PR-ходом.
Регуляторам это не понравилось. Они хотели не красивых слов, а конкретных действий: исправления уязвимостей, усиления фильтров, прозрачности в модерации. И, возможно, штрафов.
Что будет с «свободным» ИИ теперь?
Скандал с Grok стал тестовым полигоном. Не для ИИ, а для регуляторов. Они увидели, что происходит, когда компания выпускает мощный инструмент без адекватных safeguards (защитных механизмов).
Теперь каждый следующий генератор изображений будут проверять в десять раз строже. Особенно если он позиционируется как «свободный» или «минимально цензурируемый».
Ирония в том, что сам Илон Маск раньше критиковал другие компании за излишнюю цензуру. Мол, они ограничивают свободу слова. Теперь его же компания стала примером того, что происходит, когда свободы слишком много.
Пять стран уже ведут расследования. Это не локальный скандал, а международный прецедент. Результаты могут повлиять на регулирование ИИ во всём мире.
Прогноз: кровь будет
xAI, скорее всего, отделается штрафами и обещаниями. Grok либо закроют, либо переделают до неузнаваемости. «Spicy mode» навсегда уйдёт в историю как пример того, как не надо делать ИИ.
Но главный урок не в этом. Главный урок — регуляторы больше не верят на слово. Они видели риски в медицине, видели фейки в политике. А теперь увидели, что ИИ может создавать то, что создавать не должен вообще.
Следующий на очереди — законодательный пресс. Не удивляйтесь, если через год для запуска любого генеративного ИИ потребуется лицензия, как для атомной электростанции. Только безопасность будет проверять не инженер, а прокурор.
А пока — наблюдаем. Пять стран, пять расследований, одна компания. Илон Маск любит говорить, что ИИ опаснее ядерного оружия. Похоже, его собственная компания решила это доказать на практике.