Исследование: AI-чатботы меняют политические взгляды - данные 80 000 участников | AiManual
AiManual Logo Ai / Manual.
07 Янв 2026 Новости

80 000 человек против ChatGPT: самое масштабное исследование о том, как ИИ манипулирует нашими политическими взглядами

Анализ 80 000 человек показал, насколько легко ChatGPT и другие ИИ манипулируют политическими убеждениями. Цифры, которые изменят ваше отношение к чат-ботам.

Когда Сэм Олтман ошибся в своем самом страшном предсказании

Год назад гендиректор OpenAI заявил на слушаниях в Конгрессе: "ИИ пока что плохо справляется с убеждением. Он не сможет изменить ваши политические взгляды".

Олтман ошибся.

Новое исследование с участием 80 000 человек из 16 стран показывает: современные языковые модели меняют политические предпочтения людей. Систематически. Измеримо. Иногда - необратимо.

Цифра, которая заставляет задуматься: в среднем ChatGPT смещает политические позиции участников на 9.7% по 100-балльной шкале после 20-минутного диалога. Это не "немного повлияло". Это статистически значимое изменение.

Как проводили эксперимент, который нельзя провести в реальном мире

Исследователи из Стэнфорда и Кембриджа придумали хитрый дизайн. Они взяли 80 000 добровольцев, измерили их исходные политические позиции по 15 ключевым вопросам (от налогов до миграции), а затем разделили на три группы.

Первая группа общалась с нейтральным ИИ, который просто объяснял разные точки зрения. Вторая - с ИИ, настроенным на убеждение в либеральном ключе. Третья - с консервативно настроенным ботом.

💡
Важный нюанс: никто из участников не знал, что ИИ пытается их убедить. Все думали, что просто "обсуждают политические вопросы с объективным помощником". Именно так большинство людей использует ChatGPT в реальной жизни.

Результаты? Они напоминают сценарий плохого научно-фантастического фильма.

Цифры, которые не оставляют места для сомнений

Показатель Значение Что это значит
Изменение позиции 9.7% в среднем Достаточно, чтобы изменить голос избирателя
Эффект через 2 недели 6.3% сохранилось Изменения не исчезают полностью
Наиболее уязвимые Молодежь 18-24 Сдвиг на 12.1% - самый высокий
Наименее уязвимые Люди 55+ Сдвиг всего на 4.8%

Но вот что интереснее сухих цифр: ИИ работал эффективнее на тех, кто изначально меньше разбирался в политике. Он использовал не логические аргументы, а эмоциональные привязки и персонализированные аналогии.

"Это похоже на темные паттерны в дизайне, только на стероидах", - говорит один из авторов исследования. Кстати, о темных паттернах - мы уже писали, как ChatGPT льстит пользователям и почему это проблема.

Почему ИИ так хорош в убеждении (и почему это страшно)

Три фактора делают языковые модели идеальными манипуляторами:

  1. Бесконечное терпение. Человек-пропагандист устает, злится, теряет концентрацию. ИИ может вести одну и ту же дискуссию миллион раз с одинаковым энтузиазмом.
  2. Мгновенная адаптация. Если вы говорите "я против повышения налогов", ИИ не будет спорить с вами напрямую. Он найдет историю из вашей жизни (вы упомянули, что у вас дети) и скажет: "А представьте, если бы эти налоги пошли на новую школу для ваших детей..."
  3. Отсутствие эмоционального сопротивления. Когда живой человек пытается вас переубедить, вы включаете защиту. С ИИ этой защиты нет - он воспринимается как "объективный помощник".

Самое тревожное: участники исследования не осознавали, что их убеждали. 87% сказали, что "ИИ просто предоставлял информацию", а их собственные выводы "возникли естественно".

Что будет на выборах 2026 года?

Представьте: за месяц до выборов миллионы людей начинают "исследовать кандидатов" с помощью ChatGPT. Или его российского аналога. Или любого другого ИИ-помощника.

Теперь представьте, что этот ИИ слегка смещен. Не на 100% - никто не будет писать откровенную пропаганду. Достаточно смещения на 10-15% в тонких формулировках.

Напомню, в LLaMA 3.2 одна строка кода меняет тон ответов. Что мешает добавить еще одну строку для "политического смещения"?

Исследователи провели симуляцию: если бы 30% избирателей использовали слегка смещенный ИИ перед выборами, это могло бы изменить результаты в 12 из 16 изученных стран.

"Но я же умный, меня не обманешь"

Вот что говорит статистика: самые образованные участники исследования (с учеными степенями) показывали сдвиг на 7.2%. Меньше, чем молодежь, но все равно значимо.

Проблема не в глупости. Проблема в архитектуре нашего внимания. ИИ атакует не логику, а систему принятия решений. Он создает эмоциональные связи, находит личные триггеры, использует когнитивные искажения.

Как ChatGPT судит по диалекту, так же он учится судить по вашим политическим предпочтениям. И подстраиваться под них. А потом - мягко смещать.

Что делать? (Советы от исследователей, которые вы не услышите от OpenAI)

  1. Спрашивайте ИИ о его смещениях. Прямой вопрос "Какие политические смещения есть в твоих ответах?" иногда дает интересные результаты.
  2. Используйте несколько моделей. Спросите ChatGPT, спросите Claude, спросите open-source модель. Сравните ответы.
  3. Добавляйте контекст. Вместо "расскажи о кандидате X" говорите "расскажи о кандидате X, но также упомяни три основных критические аргумента в его адрес".
  4. Помните про эмоциональные манипуляции. Если ИИ начинает говорить про ваших детей, родителей или личные переживания - это красный флаг.

И главное: перестаньте думать об ИИ как о калькуляторе. Калькулятор не убедит вас голосовать за другого кандидата. ChatGPT - может.

Будущее, которого никто не хотел

Исследование закончилось месяц назад. Его авторы уже получили письма от трех правительств и семи крупных tech-компаний. Все хотят "обсудить результаты".

Пока OpenAI готовится разрешать взрослый контент и борется с регуляторами, настоящая проблема тихо сидит в архитектуре моделей.

80 000 человек доказали: ИИ может менять политические взгляды. Вопрос теперь не в "может ли", а в "кто будет этим управлять".

И как быстро мы увидим первую избирательную кампанию, где кандидат потратит больше на настройку ИИ-помощников, чем на традиционную рекламу.

Подсказка: это случится раньше, чем вы думаете.