Миллиарды против $3000: почему авторы объявили войну ИИ-гигантам
В мире искусственного интеллекта назревает судебная буря, способная перевернуть всю индустрию. Известный журналист и автор бестселлера «Плохая кровь» Джон Каррейру вместе с группой писателей подал коллективный иск на миллиарды долларов против шести технологических гигантов: Anthropic, OpenAI, Meta, Google, Microsoft и IBM. Повод? Массовое использование защищенных авторским правом книг для обучения языковых моделей без разрешения и справедливой компенсации.
Иск утверждает, что компании создали многомиллиардный бизнес, «присвоив» творческий труд авторов, предлагая взамен символические выплаты в размере $3000 за книгу — сумму, которую истцы называют «оскорбительной».
Суть конфликта: что именно нарушили ИИ-компании?
В основе спора лежит процесс обучения больших языковых моделей (LLM), таких как ChatGPT от OpenAI или Claude от Anthropic. Для того чтобы научить ИИ писать, рассуждать и генерировать связные тексты, модели «скармливают» огромные массивы данных из интернета — книги, статьи, научные работы, код.
- Использование без лицензии: Авторы утверждают, что их произведения, включая бестселлеры, были использованы в тренировочных наборах данных (таких как The Pile, Books3) без их ведома и согласия.
- Прямое копирование: Иск содержит доказательства, что модели могут воспроизводить значительные фрагменты текста из книг-источников почти дословно.
- Несправедливое обогащение: Компании, чья капитализация исчисляется триллионами (как в случае с Nvidia и партнерами по экосистеме), построили бизнес на чужой интеллектуальной собственности.
| Компания-ответчик | Ключевая модель | Предлагаемая компенсация (за книгу) |
|---|---|---|
| Anthropic | Claude | ~$3000 (по программе лицензирования) |
| OpenAI | ChatGPT, GPT-4 | Аналогичные предложения |
| Meta | Llama | Не раскрывается |
| Gemini | Не раскрывается |
Почему $3000 — это «оскорбление»?
Для индустрии, где инвестиции исчисляются миллиардами, а потенциальная прибыль — триллионами, предложение в $3000 за право использовать книгу выглядит не просто скупо, а цинично. Рассмотрим на примере:
Авторы настаивают на компенсации, соразмерной той ценности, которую их работы создали для ИИ-компаний. Они требуют:
- Статистическую лицензию: Выплаты, основанные на том, как часто текст книги используется в ответах модели или на объеме данных, на которых она обучалась.
- Долю от прибыли: Процент от доходов, которые компании получают от моделей, обученных на их произведениях.
- Полное удаление данных: В крайнем случае — требование «отучить» модели от их книг, что технически сложно и дорого.
Правовой прецедент: что будет, если авторы выиграют?
Этот иск — не первый, но самый масштабный и громкий. Его успех может создать катастрофический прецедент для всей индустрии генеративного ИИ.
- Пересмотр бизнес-модели: Компаниям придется либо договариваться с каждым правообладателем (миллионами), либо кардинально менять подход к сбору данных. Это может замедлить инновации, как в случае с некоторыми опенсорс-проектами.
- Взрыв затрат: Стоимость обучения моделей, которая уже достигает сотен миллионов долларов, может взлететь в разы.
- «Очистка» данных: Компании начнут инвестировать в создание полностью чистых от копирайта датасетов или в генерацию синтетических данных.
Параллельно с этим судом, исследования показывают, как глубоко ИИ уже проник в творческие профессии. Победа авторов может дать им рычаг для переговоров о будущем своих профессий в эпоху ИИ.
Аргументы защиты: «добросовестное использование» и прогресс
ИИ-компании, скорее всего, будут апеллировать к доктрине «добросовестного использования» (fair use) в американском праве. Она допускает ограниченное использование материалов, защищенных авторским правом, без разрешения в целях критики, комментариев, новостей, обучения или исследований.
Их аргументы могут звучать так:
# Упрощенная логика аргументации защиты
def fair_use_defense():
purpose = "обучение ИИ для создания новых, трансформативных продуктов"
nature = "фактические, опубликованные работы"
amount = "использование всего текста необходимо для понимания контекста"
effect = "не заменяет оригинальную книгу на рынке, а создает новый продукт"
if all([purpose == "трансформативный", effect != "замена рынка"]):
return "Это добросовестное использование"
else:
return "Нарушение авторских прав"Однако суды уже проявляют скептицизм. В аналогичных делах против Stability AI и GitHub Copilot судьи не спешили принимать аргументы fair use, отправляя дела к рассмотрению по существу.
Будущее индустрии: между скалой и наковальней
Исход этого дела определит не только судьбу миллиардных выплат, но и вектор развития технологий. Возможны несколько сценариев:
| Сценарий | Последствия для ИИ-компаний | Последствия для авторов |
|---|---|---|
| Победа авторов | Рост затрат, замедление разработок, поиск новых данных (как в Google Translate). | Новый источник дохода, больше контроля над своим творчеством. |
| Победа компаний (fair use) | «Зеленый свет» для сканирования всего интернета, ускорение разработок. | Потеря контроля, необходимость конкурировать с ИИ, обученным на их же работах. |
| Внесудебное урегулирование | Создание коллективных лицензионных пулов (типа ASCAP для текстов). | Стабильные, но, вероятно, небольшие роялти. |
Пока суд не начался, ясно одно: эпоха бесконтрольного «загребания» данных из интернета для обучения ИИ подходит к концу. Цена прогресса должна быть справедливой для всех, включая тех, чьим творчеством этот прогресс питается. И $3000 за книгу, которая помогла построить модель стоимостью в десятки миллиардов, — это не справедливая цена. Это начало войны.