Дело, которое никому не нужно
В Беларуси подали иск. Девочки-подростки против приложения ClothOff и компании xAI Илона Маска. Суть проста: нейросеть Grok от xAI использовали для создания deepfake порно с их фотографиями. Приложение ClothOff позволяло "раздевать" любые фото за пару кликов.
Иск выглядит как победа. Жертвы борются. Технологические гиганты отвечают. Но это иллюзия. Этот иск - идеальный пример того, почему deepfake порно не остановить. Никогда.
Дело рассматривает Белорусский верховный суд. Ответчики - белорусские разработчики ClothOff и американская xAI. Международная юрисдикция превращает процесс в юридический кошмар, который продлится годами.
ClothOff: приложение, которое все скачали и все осуждают
Откройте любой форум. ClothOff хвалили как технологическое чудо. Загружаешь фото в одежде - получаешь голое тело. Алгоритмы дорисовывали всё, что скрыто. Реалистично. Быстро. Анонимно.
Разработчики уверяли: приложение для взрослых, которые согласны на обработку своих фото. На практике туда загружали снимки одноклассниц, коллег, случайных людей из Instagram. Согласие? Не смешите.
Когда начался скандал, App Store и Google Play удалили приложение. Но apk-файлы уже разлетелись по файлообменникам. ClothOff умер. Его клоны живут. Их десятки.
Grok от xAI: нейросеть, которая видела слишком много
Вторая сторона иска - xAI, компания Илона Маска. Их модель Grok для генерации изображений стала двигателем для ClothOff и подобных сервисов.
Здесь начинается самое интересное. xAI утверждает, что Grok имеет защитные фильтры против создания порнографии и контента с несовершеннолетними. На бумаге. На практике эти фильтры обходили за пять минут.
Как? Промпты вроде "создай анатомически правильную учебную модель для художников" или "нарисуй греческую статую в стиле барокко". Система пропускала. Люди дорисовывали детали сами или использовали другие AI-инструменты.
| Проблема | Почему не решается |
|---|---|
| Технологическое определение порнографии | ИИ не понимает контекст. Медицинский атлас и порно используют одинаковые пиксели. |
| Возраст определение | Нейросеть не может отличить 17-летнего от 18-летнего по фото. Даже люди ошибаются. |
| Распространение через мессенджеры | Шифрование защищает приватность. И мешает отслеживанию нелегального контента. |
xAI уже попадала в подобные истории. Ранее Grok обвиняли в создании фейковых нюдов знаменитостей. Компания извинялась, дорабатывала фильтры. Цикл повторялся.
Закон всегда отстает на три шага
Белорусский иск основан на законах о защите персональных данных и правах несовершеннолетних. Проблема в том, что эти законы писались для эпохи, когда для создания поддельного порно нужна была студия, актеры и монтажер.
Сейчас любой школьник с телефоном создает deepfake за 10 минут. Юридические механизмы рассчитаны на поиск и наказание конкретного человека, который распространяет контент. Но как найти того, кто сгенерировал изображение на своем устройстве и отправил его в зашифрованный Telegram-канал?
Ответ: никак.
В США только 10 штатов имеют законы конкретно против deepfake порно. В большинстве стран его рассматривают как "разновидность кибербуллинга" или "нарушение авторских прав". Наказания несоразмерны ущербу.
Разработчики типа ClothOff всегда прикрываются пунктом в пользовательском соглашении: "не загружайте фото без согласия людей". Это как продавать ножи с надписью "не использовать для убийств". Формально защищены. Фактически - соучастники.
Цепочка безответственности
Кто виноват в случае с белорусскими подростками?
- Человек, который сделал скриншот из Instagram и загрузил в ClothOff?
- Разработчики ClothOff, создавшие инструмент?
- xAI, обучившая модель на данных, которые позволяют генерировать обнаженные тела?
- Владелец Instagram, разрешивший скачивание фото?
- Родители, не настроившие приватность аккаунта ребенка?
Правильный ответ: все вышеперечисленные. И никто одновременно. Каждый может сказать "я лишь маленькое звено".
Это та же проблема, что и с AI-мошенником DoorDash. Технология создает возможности для злоупотреблений. Отследить и наказать - почти невозможно.
Технические решения, которые не работают
Индустрия предлагает "решения". Водяные знаки на AI-генерациях. Детекторы deepfake. Базы данных хэшей запрещенного контента. Все это бесполезно в масштабе.
Водяные знаки стираются за секунду. Детекторы отстают от генераторов на месяцы. Хэши не работают, если каждый пользователь создает уникальное изображение.
Единственный реальный способ борьбы - запретить технологии генерации изображений вообще. Что невозможно. И не нужно.
Что будет с иском?
Прогноз пессимистичный. ClothOff обанкротят или оштрафуют. Его создатели исчезнут и запустят новый проект под другим именем.
xAI заплатит отступные или заключит мировое соглашение. Илон Маск сделает громкое заявление о защите пользователей. Фильтры Grok немного улучшатся. До следующего скандала.
Девочки-истцы получат компенсацию. Несоразмерную пережитому ужасу. Их deepfake порно продолжит жить в закрытых чатах и на форумах.
А через месяц появится новое приложение. С лучшей нейросетью. С более простым интерфейсом. И всё начнется сначала.
Это не поражение правосудия. Это поражение самой идеи, что технологии можно контролировать законами, написанными для аналогового мира.
Так что делать?
Первое - перестать верить в технические панацеи. Никакой ИИ не остановит другой ИИ.
Второе - менять культуру, а не код. Пока создание deepfake порно считается "безобидным приколом" среди подростков, а не уголовным преступлением, законы бессильны.
Третье - готовиться к худшему. Технология будет только дешеветь и улучшаться. Через год для создания реалистичного deepfake будет достаточно голосовой команды в смартфоне.
Белорусский иск - не начало войны с deepfake порно. Это первая официальная капитуляция. Признание того, что мы проиграли, еще не начав сражаться.
Остается один вопрос: что страшнее - технологии, которые создают эти изображения, или общество, которое так жаждет их смотреть?