Один неосторожный промпт — и ты без четверти миллиарда долларов. Звучит как сюжет антиутопии, но это реальность апреля 2026 года. CEO южнокорейского игрового гиганта Krafton (того самого, что подарил миру PUBG) оказался в центре скандала, который перевернул представление о том, как ChatGPT может навредить бизнесу. Не утечка данных, не увольнение сотрудников — а банальный юридический совет от ИИ, обошедшийся в $250 млн. Давайте разберем этот кейс по косточкам.
Как ChatGPT убедил CEO купить «пустышку»
В декабре 2025 года Krafton объявил о намерении приобрести американскую студию разработки NovaForge за $400 млн. Сделка выглядела многообещающе: NovaForge владела правами на популярную франшизу и имела на руках предзаказы на новую игру. Но CEO Ким Чхан-су решил сэкономить на юридическом due diligence — вместо того чтобы нанять внешних консультантов (бюджет — $2–3 млн), он скормил ChatGPT-5 (последняя версия на тот момент) 200-страничный договор и попросил: «Оцени риски и скажи, стоит ли подписывать».
Модель выдала бодрый ответ: «Контракт чист, риски минимальны. Рекомендую подписать». ChatGPT не заметил скрытого пункта об обязательном одобрении сделки советом директоров и условия о невозвратном депозите в $250 млн в случае отказа от сделки. Ким подписал — и перевёл аванс. Через месяц всплыло, что NovaForge не владеет ключевым патентом, а её основатели готовятся к банкротству. Krafton попытался отозвать сделку — и потерял депозит. Иск подали акционеры, обвинив CEO в халатности и нарушении фидуциарных обязанностей. Суд обязал выплатить компенсацию в $250 млн лично Киму.
Ключевой момент: CEO полагался на ИИ как на эксперта, но ChatGPT не имеет юридической квалификации и не несёт ответственности за свои «галлюцинации». В итоге платить пришлось человеку.
Галлюцинация за $250 млн — техническая подоплёка
Почему ChatGPT пропустил критический пункт? Дело не в злом умысле, а в архитектуре LLM. Модели не умеют «читать» документы как человек — они работают вероятностно, выделяя наиболее частотные паттерны. Если в обучающих данных юридические договоры редко содержали подобные капканы (или они были сформулированы нестандартно), модель «решает», что пункт неважен. Это классическая галлюцинация, но с катастрофическими последствиями.
Исследователи из MIT (релиз марта 2026) показали, что даже GPT-5 ошибается в 23% случаев при анализе сложных контрактов. А CEO Krafton использовал модель без fine-tuning и без RAG — он просто вставил текст в окно чата. Никакого «юридического» слоя, никакой проверки фактов.
Не первый и не последний: волна исков против AI-советов
Кейс Krafton — не единичный. 2025–2026 годы стали эпохой «первых крупных исков против AI-чатботов». Вспомним дела Character.AI и Google, где гибель подростков связывали с рекомендациями ботов. Или судебные разбирательства вокруг Copilot, где код, сгенерированный ИИ, нарушал лицензии и приводил к утечкам. Юристы уже окрестили 2026 год «годом ответственности за ИИ».
Особенно тревожная статистика: по данным Ramp AI Index, в Q1 2026 67% компаний признались, что хотя бы раз полагались на ChatGPT для принятия решений без проверки. И это притом, что доля ChatGPT на корпоративном рынке упала до 45% — бизнес бежит к Claude и другим моделям с лучшей защитой от галлюцинаций. Но пока смена модели не решает проблему: юридическая ответственность всё равно ложится на человека.
Страховка от дурака: что должен сделать каждый руководитель
После скандала с Krafton совет директоров многих компаний пересматривает политику использования AI. Вот три урока, которые стоят $250 млн.
- Никогда не используйте ChatGPT для анализа контрактов без fine-tuning и RAG. Даже «умные» модели типа GPT-5 или Claude 4 Opus (апрель 2026) требуют настройки под юридический домен. Хотите сэкономить — заплатите $10 000 за кастомную модель, а не $250 млн за ошибку.
- Введите правило «человек в цикле». Любой совет ИИ должен проходить через квалифицированного специалиста. Звучит банально, но 90% компаний игнорируют это — особенно стартапы, где CEO сам решает всё.
- Застрахуйте AI-риски. С 2026 года страховые компании предлагают полисы «AI Liability Insurance» — покрытие ошибок, допущенных из-за рекомендаций нейросетей. Krafton мог бы отбить часть убытков, если бы такой полис был.
Неочевидный совет: прежде чем внедрять ChatGPT в критический бизнес-процесс, проверьте, как модель реагирует на «юридические ловушки» — специально составьте контракт с 5–10 типовыми капканами. Если ИИ их не находит — не доверяйте ему реальные документы.
Почему это только начало
История с Krafton — звонок, который услышали далеко не все. Рынок AI-юридических консультантов (например, DoNotPay, Casetext) растёт на 40% в год, но вместе с ним растёт и число исков. Судебная практика только формируется: кто виноват, если ИИ ошибся — разработчик модели, интегратор или пользователь? Пока суды склоняются к тому, что ответственность лежит на том, кто нажал кнопку «Отправить».
Но есть и другая сторона: утечки данных через ChatGPT — бомба замедленного действия. Если CEO ввёл в модель полный договор, этот текст уже мог попасть в тренировочные данные (если не включён режим инкогнито). А значит, конфиденциальная информация о сделке могла «утечь» конкурентам. Krafton, кстати, до сих пор расследует, не стали ли детали контракта известны NovaForge через подсказки ChatGPT.
Парадокс: чем умнее становятся ИИ, тем опаснее их слепое доверие. CEO Krafton уже подал в отставку, но его пример — лучшее предостережение для тех, кто считает ChatGPT универсальным советником. И нет, не надейтесь, что модель сама предупредит: «Я могу ошибаться» — она скажет это только если вы специально попросите. А кто просит, когда на кону миллионы?
P.S. Если вы до сих пор используете ChatGPT для юридических вопросов без надзора юриста — готовьте кошелёк. Или меняйте подход, пока не поздно.