Deepfake порно: суд против ClothOff и Илона Маска. Почему его не остановить | AiManual
AiManual Logo Ai / Manual.
12 Янв 2026 Новости

Почему невозможно остановить deepfake порно: разбор судебного иска против ClothOff и xAI

Анализ скандального иска из Беларуси против ClothOff и xAI: как deepfake порно с несовершеннолетними обнажает полный провал законов и технологий защиты.

Дело, которое никому не нужно

В Беларуси подали иск. Девочки-подростки против приложения ClothOff и компании xAI Илона Маска. Суть проста: нейросеть Grok от xAI использовали для создания deepfake порно с их фотографиями. Приложение ClothOff позволяло "раздевать" любые фото за пару кликов.

Иск выглядит как победа. Жертвы борются. Технологические гиганты отвечают. Но это иллюзия. Этот иск - идеальный пример того, почему deepfake порно не остановить. Никогда.

Дело рассматривает Белорусский верховный суд. Ответчики - белорусские разработчики ClothOff и американская xAI. Международная юрисдикция превращает процесс в юридический кошмар, который продлится годами.

ClothOff: приложение, которое все скачали и все осуждают

Откройте любой форум. ClothOff хвалили как технологическое чудо. Загружаешь фото в одежде - получаешь голое тело. Алгоритмы дорисовывали всё, что скрыто. Реалистично. Быстро. Анонимно.

Разработчики уверяли: приложение для взрослых, которые согласны на обработку своих фото. На практике туда загружали снимки одноклассниц, коллег, случайных людей из Instagram. Согласие? Не смешите.

💡
ClothOff не хранил загруженные фото на своих серверах - обработка шла на устройствах пользователей. Это сознательный ход: нет централизованного хранилища - нет ответственности за контент. Классическая уловка в стиле "мы лишь предоставляем инструмент".

Когда начался скандал, App Store и Google Play удалили приложение. Но apk-файлы уже разлетелись по файлообменникам. ClothOff умер. Его клоны живут. Их десятки.

Grok от xAI: нейросеть, которая видела слишком много

Вторая сторона иска - xAI, компания Илона Маска. Их модель Grok для генерации изображений стала двигателем для ClothOff и подобных сервисов.

Здесь начинается самое интересное. xAI утверждает, что Grok имеет защитные фильтры против создания порнографии и контента с несовершеннолетними. На бумаге. На практике эти фильтры обходили за пять минут.

Как? Промпты вроде "создай анатомически правильную учебную модель для художников" или "нарисуй греческую статую в стиле барокко". Система пропускала. Люди дорисовывали детали сами или использовали другие AI-инструменты.

ПроблемаПочему не решается
Технологическое определение порнографииИИ не понимает контекст. Медицинский атлас и порно используют одинаковые пиксели.
Возраст определениеНейросеть не может отличить 17-летнего от 18-летнего по фото. Даже люди ошибаются.
Распространение через мессенджерыШифрование защищает приватность. И мешает отслеживанию нелегального контента.

xAI уже попадала в подобные истории. Ранее Grok обвиняли в создании фейковых нюдов знаменитостей. Компания извинялась, дорабатывала фильтры. Цикл повторялся.

Закон всегда отстает на три шага

Белорусский иск основан на законах о защите персональных данных и правах несовершеннолетних. Проблема в том, что эти законы писались для эпохи, когда для создания поддельного порно нужна была студия, актеры и монтажер.

Сейчас любой школьник с телефоном создает deepfake за 10 минут. Юридические механизмы рассчитаны на поиск и наказание конкретного человека, который распространяет контент. Но как найти того, кто сгенерировал изображение на своем устройстве и отправил его в зашифрованный Telegram-канал?

Ответ: никак.

В США только 10 штатов имеют законы конкретно против deepfake порно. В большинстве стран его рассматривают как "разновидность кибербуллинга" или "нарушение авторских прав". Наказания несоразмерны ущербу.

Разработчики типа ClothOff всегда прикрываются пунктом в пользовательском соглашении: "не загружайте фото без согласия людей". Это как продавать ножи с надписью "не использовать для убийств". Формально защищены. Фактически - соучастники.

Цепочка безответственности

Кто виноват в случае с белорусскими подростками?

  • Человек, который сделал скриншот из Instagram и загрузил в ClothOff?
  • Разработчики ClothOff, создавшие инструмент?
  • xAI, обучившая модель на данных, которые позволяют генерировать обнаженные тела?
  • Владелец Instagram, разрешивший скачивание фото?
  • Родители, не настроившие приватность аккаунта ребенка?

Правильный ответ: все вышеперечисленные. И никто одновременно. Каждый может сказать "я лишь маленькое звено".

Это та же проблема, что и с AI-мошенником DoorDash. Технология создает возможности для злоупотреблений. Отследить и наказать - почти невозможно.

Технические решения, которые не работают

Индустрия предлагает "решения". Водяные знаки на AI-генерациях. Детекторы deepfake. Базы данных хэшей запрещенного контента. Все это бесполезно в масштабе.

Водяные знаки стираются за секунду. Детекторы отстают от генераторов на месяцы. Хэши не работают, если каждый пользователь создает уникальное изображение.

Единственный реальный способ борьбы - запретить технологии генерации изображений вообще. Что невозможно. И не нужно.

💡
Парадокс: те же модели, которые создают deepfake порно, используются медиками для генерации учебных материалов, художниками для творчества, дизайнерами для прототипов. Запретить вредное применение, не затрагивая полезное, - задача уровня "разделить огонь на хороший и плохой".

Что будет с иском?

Прогноз пессимистичный. ClothOff обанкротят или оштрафуют. Его создатели исчезнут и запустят новый проект под другим именем.

xAI заплатит отступные или заключит мировое соглашение. Илон Маск сделает громкое заявление о защите пользователей. Фильтры Grok немного улучшатся. До следующего скандала.

Девочки-истцы получат компенсацию. Несоразмерную пережитому ужасу. Их deepfake порно продолжит жить в закрытых чатах и на форумах.

А через месяц появится новое приложение. С лучшей нейросетью. С более простым интерфейсом. И всё начнется сначала.

Это не поражение правосудия. Это поражение самой идеи, что технологии можно контролировать законами, написанными для аналогового мира.

Так что делать?

Первое - перестать верить в технические панацеи. Никакой ИИ не остановит другой ИИ.

Второе - менять культуру, а не код. Пока создание deepfake порно считается "безобидным приколом" среди подростков, а не уголовным преступлением, законы бессильны.

Третье - готовиться к худшему. Технология будет только дешеветь и улучшаться. Через год для создания реалистичного deepfake будет достаточно голосовой команды в смартфоне.

Белорусский иск - не начало войны с deepfake порно. Это первая официальная капитуляция. Признание того, что мы проиграли, еще не начав сражаться.

Остается один вопрос: что страшнее - технологии, которые создают эти изображения, или общество, которое так жаждет их смотреть?