Скандал с Grammarly Expert Review: AI использует имена экспертов без разрешения | 08.03.2026 | AiManual
AiManual Logo Ai / Manual.
08 Мар 2026 Новости

Grammarly ворует личности: как AI-сервис использует имена экспертов без спроса

Разоблачение этического скандала: Grammarly использует имена реальных экспертов в своей AI-функции без их согласия. Как это работает и что говорит закон об AI в

"Джейн Гудолл проверила ваш текст". Серьезно, Grammarly?

Функция Expert Review в Grammarly звучала как прорыв: вашу статью или отчет может «просмотреть» легендарный антрополог, а бизнес-план — гуру менеджмента. Удобно, правда? Пока несколько десятков этих самых «экспертов» не начали получать письма от друзей: «Привет, видел, ты теперь консультируешь в Grammarly за 30$ в месяц?»

Оказалось, Grammarly просто взяла и использовала их имена, биографии и профессиональные области. Ни звонка, ни договора, ни копейки роялти. Просто скормила данные своей модели, чтобы та притворялась Стивеном Кингом, Нилом Деграссом Тайсоном или Марком Кьюбаном.

Что случилось: В начале марта 2026 года журналисты Tech Ethics Watchdog обнаружили, что в базе «экспертов» Grammarly — сотни реальных ученых, писателей и предпринимателей, которые о сервисе даже не слышали.

Как это работает? AI-имитация с чужим паспортом

Expert Review — это не видеозвонок с настоящим экспертом. Это промпт-инженерия. Система на основе модели GrammarlyGo (последняя версия на базе Gemini Ultra 3.0, если верить их документации) получает команду: «Проанализируй этот текст об изменении климата так, как это сделала бы климатолог Кэтрин Хэйхо». Модель генерирует отзыв в стиле, смоделированном на основе публичных выступлений, статей и книг Хэйхо.

Пользователь видит красивый бейдж: «Проверено экспертом: Кэтрин Хэйхо». И доверяет. Потому что это имя, а не безликий «AI-ассистент». Вот в чем вся магия (и весь подвох).

💡
Это не первый случай, когда AI присваивает личность. Вспомните скандал с манипуляцией LLM для создания заголовков о Grok. Но там играли с тоном модели. Здесь взяли конкретного человека.

Что не так с точки зрения закона? Серый лед 2026 года

Юристы чешут затылки. Прямого запрета на использование имени и стиля публичной личности для AI-сервисов в большинстве стран пока нет. Но есть право на публичный образ, товарный знак и вводящая в заблуждение реклама.

  • Согласие? Его нет. Grammarly утверждает, что использует только публично доступные данные, что якобы разрешено их пользовательским соглашением. Эксперты называют это казуистикой.
  • Введение в заблуждение? Однозначно. Пользователь думает, что к тексту приложил руку (или ум) конкретный человек.
  • Ущерб репутации? А что, если «экспертная правка» от имени нобелевского лауреата окажется полной чушью? Кто ответит? Как в истории, где юрист провалил дело из-за ChatGPT, но здесь ущерб нанесен третьей стороне.

Ответ индустрии: тишина, потом оправдания

Grammarly сначала заявила, что функция «вдохновлена» экспертами, а не имитирует их. Когда показали скриншоты с прямыми именами, перешли к версии «это экспериментальная фича бета-теста». Классика.

Но проблема-то системная. AI-компании думают, что если данные есть в открытом доступе, их можно использовать для чего угодно. Даже для создания цифрового двойника без спроса. Это та же логика, которая привела к тому, что нейросети начали генерировать фальшивые цитаты в научных статьях. Данные есть — значит, можно.

ЭкспертОбластьРеакция на использование имени
Маргарет ЭтвудПисательницаГотовит иск о нарушении права на публичный образ
Юваль Ной ХарариИсторик, философНазвал практику «цифровым вампиризмом»
Эми УэббФутурологПотребовала немедленного удаления своих данных

Что дальше? Нас ждет война за цифровую личность

Скандал с Grammarly — не конец, а начало. Технология имитации авторского стиля становится все совершеннее. Скоро любой сервис сможет создать вашего цифрового двойника для консультаций, написания писем или ведения блога. Без вас.

Законодатели в ЕС и Калифорнии уже спешно дополняют AI-акты пунктами о «цифровом согласии». Идея проста: прежде чем использовать чье-то имя, стиль или голос для тренировки или работы модели, нужно получить явное, информированное разрешение. И платить роялти.

Пока же совет простой (и парадоксальный). Если видите в AI-сервисе имя реального эксперта — не верьте. Скорее всего, он об этом не знает. Лучше проверьте текст обычным Grammarly, а потом спросите себя: а не стал ли я соучастником этой странной системы, где AI еще и судит о вашем уме по диалекту? Иронично, но честный AI без притворства под чужим именем, возможно, этичнее.

А прогноз? К концу 2026 года мы увидим первый громкий судебный процесс, где известный ученый выиграет у AI-гиганта миллионы за использование своего имени. И это станет точкой, после которой все — от OpenAI до маленьких стартапов — начнут массово вычеркивать реальные имена из своих промптов. Пока не поздно.

Подписаться на канал