ИИ-мошенничество в DoorDash: кейс подделки доставки через генерацию фото | AiManual
AiManual Logo Ai / Manual.
04 Янв 2026 Новости

AI-мошенник DoorDash: Как курьер генерировал фото доставок и почему это только начало

Разбор реального случая, когда курьер использовал AI для фальшивых фото доставки. Как это работает, уязвимости платформ и что будет дальше.

Случай, который перестал быть единичным

Все началось с обычной жалобы. Клиент DoorDash заказал суши, получил уведомление о доставке с фотографией, но на пороге никого не было. Ни суши, ни курьера. Фото выглядело странно – размытый фон, неестественные тени, дверная ручка будто плавала в воздухе. Клиент пожаловался. Служба поддержки проверила. И обнаружила: курьер использовал ИИ для генерации фотографии доставки. Никакой реальной доставки не было. Деньги списаны, еда осталась в ресторане, курьер получил оплату за несуществующую работу.

Это не теория. Это реальный инцидент, расследованный DoorDash в начале 2024 года. И таких случаев становится больше.

Как это технически работало? (Спойлер: слишком просто)

Вам не нужен PhD по машинному обучению. Вам нужен смартфон и пять минут. Курьер принимает заказ, едет куда угодно (или не едет вообще), открывает приложение типа Midjourney, DALL-E 3 или Stable Diffusion через мобильный интерфейс. Пишет промт:

"photo of a food delivery bag on a doorstep, daytime, realistic, smartphone photo quality, slightly blurry, apartment building background"

Генерирует несколько вариантов. Выбирает самый правдоподобный. Загружает в приложение DoorDash как подтверждение доставки. Система принимает. Почему? Потому что DoorDash (как и большинство платформ) проверяет только наличие фото и его метаданные на предмет явных подделок. Они не запускают детектор AI-изображений на каждую загружаемую картинку. Это дорого. Это медленно. Это не масштабируется на миллионы доставок в день.

💡
Любопытный факт: многие такие мошенники даже не скрывают артефакты генерации. На фото могут быть двери с тремя ручками, сумки с несуществующими логотипами, тени, падающие в разные стороны. Но система все равно пропускает.

Почему это сработало? Уязвимости в дизайне доверия

Проблема не в ИИ. Проблема в том, как платформы автоматизировали доверие. Система работает по принципу: "Фото есть? Значит, доставка была". Это упрощение, необходимое для масштаба, создало слепую зону. AI просто заполнил эту зону контентом, который выглядит достаточно правдоподобно для алгоритма.

Три ключевых уязвимости:

  • Верификация по минимальному критерию: Наличие любого фото = выполненная работа. Никакой проверки уникальности, геолокации на фото, временных меток в EXIF.
  • Отсутствие real-time детекции AI: Платформы экономят на вычислительных ресурсах. Запуск детектора на каждый заказ увеличил бы стоимость операции на 5-10 центов. В масштабах миллиардов доставок это миллионы долларов.
  • Социальная инженерия 2.0: Мошенник эксплуатирует не людей, а алгоритмы. Это уже не "обмани поддержку красивой историей", а "обмани систему сгенерированным пикселем".

Звучит знакомо? Это классическая проблема безопасности, только в новом контексте. Как prompt injection в чат-ботах, только для компьютерного зрения.

Что сделал DoorDash? (И почему этого недостаточно)

После инцидента DoorDash заявил об "усилении проверок" и "внедрении дополнительных мер безопасности". Что это значит на практике? Скорее всего:

  1. Выборочная проверка фото через детекторы AI-изображений (например, Hive AI, Sensity AI).
  2. Анализ метаданных фото на предмет аномалий (фото сделано за секунду до загрузки? Геолокация не совпадает с адресом?).
  3. Ручной ревью подозрительных случаев (что возвращает человеческий фактор, который пытались устранить).

Но вот в чем парадокс: чем лучше становятся детекторы, тем лучше становятся генераторы. Это гонка вооружений, где у мошенников есть преимущество – им нужно обмануть систему один раз. Платформе нужно защищать каждый заказ. Всегда.

Слабое место Как эксплуатировали Что может сломаться дальше
Верификация по фото Генерация фото через Midjourney/DALL-E Верификация по видео (deepfake), аудио (синтез голоса)
Автоматическое принятие решений Система не отличает реальное от сгенерированного Автоматические страховые выплаты, кредитные решения
Доверие к метаданным Подделка EXIF, геотегов Судебные доказательства, журналистские расследования

Это не только про доставку еды. Это про все

Представьте другие сценарии, которые уже возможны технически:

  • Страховые случаи: Генерация фото "после аварии" для получения выплаты. Уже тестируется в мошеннических схемах.
  • Удаленная работа: ИИ делает скриншоты "рабочего процесса", пока вы спите. Системы контроля сотрудников падут первыми.
  • Рынок недвижимости: Генерация интерьеров для аренды, которых не существует. Потенциальный клише для Airbnb-мошенничества.
  • Образование: Студенты сдают "оригинальные" работы, сгенерированные ИИ. Системы проверки на плагиат уже бесполезны.

Как в случае с deepfake-скандалом вокруг Grok, регуляторы безнадежно отстают. Законодательство о цифровых доказательствах написано в эпоху, когда подделать фото требовало Photoshop и часов работы эксперта. Сейчас это 10 секунд и промт.

Что делать платформам? (Советы, которые они не хотят слышать)

Можно, конечно, закручивать гайки. Но есть нюанс: каждое ужесточение увеличивает трение для честных пользователей. Курьеру теперь нужно не просто сфотографировать доставку, а сделать селфи с клиентом, отсканировать QR-код на двери, пройти капчу. Клиент ждет дольше. Опыт ухудшается.

Альтернатива? Признать, что 100% автоматизированного доверия не существует. И построить гибридные системы:

1 Многофакторная верификация, а не только фото

Геолокация в реальном времени + акселерометр (курьер подошел к двери, телефон наклонился) + фото. Подделать все три фактора одновременно сложнее.

2 Адаптивная проверка

Новый курьер? Проверяем все. Курьер с 1000 успешных доставок? Проверяем выборочно. Риск-ориентированный подход вместо тотального контроля.

3 Прозрачность для клиента

Показывать не только фото, но и метаданные: "Курьер находился в 15 метрах от вашей двери в 19:43". Клиент сам становится детектором аномалий.

Ирония в том, что сами платформы используют ИИ для оптимизации маршрутов, прогнозирования спроса, чат-ботов поддержки. Теперь этот же инструмент используют против них. Симметричная война.

Что дальше? Прогноз на ближайший год

Случай с DoorDash – это первая ласточка. Дальше будет хуже. Почему?

  1. ИИ дешевеет: API-вызов к DALL-E 3 стоит копейки. Через год будет стоить еще меньше.
  2. Детекторы отстают: Как показало исследование Wildberries про детекцию AI-фото, даже лучшие модели ошибаются в 15-20% случаев. В масштабах платформы это тысячи ложных срабатываний.
  3. Мошенники учатся: Появятся специализированные инструменты: "DoorDash Photo Generator v1.0" с промтами, оптимизированными под конкретные платформы.

Что делать нам, пользователям? Проверять. Сомневаться. Не принимать фото за чистую монету. И требовать от платформ реальной защиты, а не PR-заявлений. Потому что следующий шаг – не подделка доставки суши. А подделка документов, доказательств, идентичности.

Курьер с ИИ был лишь разведкой боем. Настоящее наступление еще впереди. И готовы ли к нему не только DoorDash, но и банки, госучреждения, социальные сети – большой вопрос. Как показал взлом Snapchat-бота, уязвимости в AI-системах часто фундаментальны. И исправлять их придется не патчами, а перепроектированием самих принципов работы.

P.S. Если вы работаете в платформе, которая полагается на пользовательский контент как доказательство – запустите прямо сейчас тестовую атаку. Сгенерируйте фото через ИИ и попробуйте загрузить в свою же систему. Удивитесь результату. Или не удивитесь. Но хотя бы будете знать.