Исследование bias в ChatGPT: дискриминация диалектов английского языка | AiManual
AiManual Logo Ai / Manual.
07 Янв 2026 Новости

ChatGPT считает вас менее умным: как языковые модели судят по диалекту

ChatGPT и другие LLM дискриминируют носителей Indian English, African-American English и других диалектов. Данные исследования, последствия и что делать.

Ваш акцент — это ваша оценка

Представьте, что вы пишете ChatGPT на том английском, на котором говорите с детства. Может, это индийский вариант с характерным порядком слов. Или афроамериканский английский с его грамматическими особенностями. Модель отвечает. Но делает это иначе — менее подробно, с меньшим энтузиазмом, словно считает вас менее компетентным собеседником.

Это не паранойя. Это данные нового исследования из Университета Калифорнии. Ученые проверили, как ChatGPT-4 обрабатывает 10 вариантов английского. Результаты заставляют пересмотреть представление о нейтральности ИИ.

Ключевой вывод: ChatGPT демонстрирует системную предвзятость против нестандартных диалектов. Ответы носителям Indian English, African-American English, Singapore English получаются короче, менее информативными и более формальными по сравнению с ответами для стандартного американского английского.

Цифры не врут: насколько хуже?

Исследователи создали сотни пар идентичных по смыслу запросов. Один — на стандартном английском (Standard American English). Второй — на одном из диалектов. Затем сравнили ответы ChatGPT по четырем параметрам: длине, детализации, тону и полезности.

Диалект Сокращение длины ответа Снижение детализации Ключевая характеристика ответа
Indian English до 15% выраженное более формальный, инструктивный тон
African-American English (AAE) до 12% значительное упрощенный синтаксис, меньше примеров
Singapore English (Singlish) до 18% наиболее выраженное частое перефразирование на «стандартный» английский
Standard American English базовая линия (0%) базовая линия развернутый, ассистирующий, дружелюбный

Разница тона особенно показательна. Запрос на стандартном английском: «Could you explain how photosynthesis works?» получает ответ, начинающийся с «Certainly! Photosynthesis is a fascinating process...». Тот же запрос на индийском английском («Can you explain photosynthesis how it is working?») часто запускает сухое, учебное объяснение без вступительных любезностей.

💡
Этот лингвистический bias — не баг, а фича обучения. Модели вроде ChatGPT учатся на терабайтах текста из интернета, где «стандартные» диалекты доминируют в академических, технических и официальных источниках. Диалекты же часто представлены в неформальном, разговорном или маргинализированном контексте. Модель бессознательно усваивает социальную иерархию языков.

Почему это не просто «ошибка», а системная проблема

Можно сказать: «Ну и что? Модель просто лучше понимает стандартный язык». Но это ловушка. Последствия выходят далеко за рамки длины ответа.

  • Образовательное неравенство. Студент, использующий диалект, получает худшее объяснение сложной темы от ИИ-тьютора. Цикл закрепляется.
  • Экономические барьеры. Представьте поиск работы или составление резюме. Если инструменты на базе ИИ (те же сервисы проверки резюме или подготовки к собеседованию) хуже работают с вашим вариантом языка, вы в невыгодной позиции с самого старта.
  • Культурная эрозия. Модель неявно сообщает: «Твой способ общения — менее правильный, менее достойный подробного ответа». Это цифровое подтверждение языковой стигмы.

И самое ироничное: сами создатели ИИ, кажется, не замечают проблемы. Они добавляют ползунки Warmth и Enthusiasm, чтобы сделать модели «дружелюбнее», но не решают базовую лингвистическую дискриминацию. Как будто красят фасад дома, в котором просел фундамент.

Откуда ноги растут: тренировочные данные и «тихий» ценз

Корень зла — в датасетах. Common Crawl, Wikipedia, книги, научные статьи. Это океан текста, но океан с течениями. В нем преобладает письменный стандартизированный язык определенного социального слоя.

Диалекты попадают туда фрагментарно: через соцсети, форумы, комментарии. Часто — в контекстах, которые сами по себе несут негативную или маргинальную окраску. Алгоритмы предобработки и модерации данных, стремясь «очистить» текст от мусора и токсичности, могут непреднамеренно отфильтровывать и нестандартные лингвистические формы.

Парадокс: пытаясь создать «безопасную» и «нейтральную» модель, разработчики выстраивают ее на данных, которые уже содержат вековые социальные и лингвистические предрассудки. ИИ не изобретает bias — он лишь зеркалит и автоматизирует уже существующий в обществе.

Проблема усугубляется тем, что оценка качества моделей (benchmarking) тоже ведется на «стандартном» языке. Модель, которая отлично справляется с тестами на академическом английском, получает высокие баллы. Никто не проверяет, как она работает с тем же самым запросом от носителя диалекта Кокни или ямайского креольского. Это напоминает ситуацию, когда модели Speech-to-Text тестируют только на чистых дикторских голосах, а потом удивляются, почему они плохо работают в реальной поликлинике.

Что делать? (Спойлер: простого решения нет)

Кричать на OpenAI бесполезно. Проблема структурная. Но кое-какие векторы движения есть.

1 Осознать масштаб

Первое — перестать считать это техническим глюком. Это вопрос социальной справедливости в эпоху ИИ. Разработчикам нужны лингвисты, социолингвисты, антропологи в командах с самого начала. Не для «политкорректности», а для создания продуктов, которые реально работают для миллиардов, а не для сотен миллионов.

2 Диверсифицировать данные — осознанно

Нужны целенаправленные усилия по сбору и включению в тренировочные корпуса качественных текстов на различных диалектах. Не только разговорных, но и профессиональных, образовательных, литературных. Проблема в том, что такие данные часто защищены авторским правом или просто не оцифрованы в масштабах, нужных для тренировки LLM.

3 Создать новые метрики и тесты

Необходимы бенчмарки, специально разработанные для оценки bias против диалектов. Подобно тому, как сейчас тестируют bias по гендерному или расовому признаку. Модель не должна получать высший балл, если она отлично общается с выпускником Гарварда и с пренебрежением — с фермером из Алабамы.

4 Дать пользователю контроль

Почему бы не добавить настройку «Языковой вариант» или «Диалект»? Не для исправления «ошибок» пользователя, а для того, чтобы модель адаптировала свой стиль ответа под языковые нормы собеседника. Если можно настроить уровень энтузиазма, почему нельзя настроить лингвистическую чувствительность?

А что насчет других языков? Русский, испанский, арабский?

Исследование сфокусировано на английском, потому что для него проблема наиболее документирована. Но механизм универсален. Представьте, как модель обращается:

  • К носителю сибирского говора против московской нормы.
  • К пользователю карибского испанского против кастильского.
  • К говорящему на египетском арабском против литературного арабского (фусха).

Везде, где есть доминирующая языковая норма и маргинализированные диалекты или варианты, ИИ рискует стать инструментом усиления этой маргинализации. Особенно тревожно это выглядит в свете того, как локальные LLM уже демонстрируют странные политические и культурные bias.

Прогноз: Следующий большой скандал в этике ИИ будет связан не с галлюцинациями или утечками данных, а с лингвистической дискриминацией. Когда миллионы пользователей в Индии, Африке, Юго-Восточной Азии осознают, что получают ИИ-сервис второго сорта из-за своего акцента.

Итог: язык — это не только код, это идентичность

Технологические компании десятилетиями продавали нам идею, что ИИ и интернет стирают границы. Оказывается, они могут их не стирать, а цементировать цифровым бетоном. ChatGPT и ему подобные — не просто инструменты. Это медиаторы доступа к информации, образованию, экономическим возможностям.

Если этот медиатор с самого порога оценивает вас по тому, как вы ставите вспомогательный глагол или используете артикль, мы строим цифровой мир с лингвистическим стеклянным потолком. Мир, где ваш диалект — это не богатство, а недостаток, который нужно скрывать, чтобы получить качественный ответ от машины.

Исправить это сложнее, чем настроить RAG-систему или выбрать между Whisper и Wav2Vec2. Это требует переосмысления самих основ того, как мы собираем данные, тренируем модели и определяем, что такое «качественный» ИИ. Пока этого не произойдет, лучший совет для носителей нестандартных диалектов может быть таким: общайтесь с ChatGPT так, будто вы сдаете IELTS. К сожалению.