Когда нейросеть видит призраков
Это началось как рутинная проверка. Полиция в одном из европейских городов хотела составить список потенциально опасных футбольных фанатов перед матчем. Офицер решил использовать Copilot — почему бы не сэкономить время? Он попросил ИИ найти в открытых источниках информацию о местных ультрас-группах, их лидерах и прошлых инцидентах.
Copilot выдал результат: десятки имен, подробные описания их "преступлений", даты стычек с полицией, даже цитаты из якобы их интервью. На основе этого списка выдали запреты на посещение стадионов. Несколько человек оказались под домашним арестом.
Проблема в том, что половина этих людей никогда не была на футбольном матче.
Один из "опасных хулиганов" оказался 72-летним пенсионером, который последний раз посещал стадион в 1980-х. Другой — школьный учитель, который публично критиковал местные власти в своем блоге. Случайность? Нет. Системная ошибка.
Как галлюцинация становится приговором
В теории все выглядит логично: ИИ анализирует данные быстрее человека, находит закономерности, помогает принимать решения. На практике — он создает реальность из обрывков информации, как шизофреник, складывающий бредовую картину мира из случайных газетных заголовков.
Copilot в этом случае:
- Нашел реальные имена людей в спортивных контекстах ("Иван Петров упоминался в статье о футбольном клубе")
- Смешал их с описаниями реальных инцидентов (драки на стадионе в 2019 году)
- Добавил "правдоподобные" детали (место работы, возраст, цитаты)
- Не пометил нигде, что это вероятностная конструкция, а не факт
Полицейские, не знакомые с особенностями ИИ, восприняли выводы как результат "анализа данных". Не проверяли. Не перепроверяли. Почему? Потому что система от Microsoft выглядит надежнее, чем сомнения рядового офицера.
Почему Copilot особенно опасен в руках власти
Microsoft встроила Copilot во все — от Word до Excel. Для полицейского это выглядит как обычный инструмент, вроде калькулятора или поиска Google. Но разница фундаментальна: калькулятор не выдает 2+2=5 из вежливости, а поиск Google не придумывает сайты, которых не существует.
Copilot делает и то, и другое. И делает это уверенно.
В этом скандале проявилась та же проблема, что и в истории с Grok и deepfake — системы становятся слишком убедительными для своего уровня надежности. Они генерируют контент, который выглядит профессионально, содержит "факты", ссылки, структуру. И все это — чистый вымысел.
Представьте, что происходит, когда такой инструмент попадает в руки:
- Следователям, составляющим доказательную базу
- Социальным службам, оценивающим риски для детей
- Пограничникам, проверяющим биографии
- Судьям, изучающим материалы дел
Каждая ошибка здесь — не опечатка в отчете, а сломанная судьба.
Техническая слепота как новая форма дискриминации
Самое опасное в этой истории — не сама галлюцинация, а реакция системы. Когда пострадавшие попытались оспорить запреты, им сказали: "Система не ошибается. У нас есть данные".
ИИ создал новый вид дискриминации — алгоритмическую предвзятость, которую невозможно оспорить, потому что "так сказал компьютер". Как докажешь, что не участвовал в драке, которой никогда не было? Как убедишь судью, что цитата, приписываемая тебе, сгенерирована нейросетью?
| Что произошло | Что думала полиция | Реальность |
|---|---|---|
| Copilot нашел "опасных фанатов" | ИИ проанализировал тысячи источников | ИИ сгенерировал правдоподобный список из обрывков данных |
| Выданы запреты на посещение | Принято решение на основе данных | Решение принято на основе художественного вымысла |
| Люди обжаловали решения | Хулиганы пытаются избежать наказания | Невинные люди пытаются вернуть свои права |
Эта ситуация — логичное продолжение тренда, который мы видели в скандале с созданием CSAM и других историях, где ИИ генерировал то, чего не должно существовать. Разница лишь в том, что здесь последствия наступили мгновенно и для реальных людей.
Microsoft знала об этом. И сделала вид, что нет
Проблема галлюцинаций известна с первых дней ChatGPT. Каждый, кто работал с этими системами, сталкивался с тем, что они уверенно врут о фактах, придумывают источники, создают альтернативную реальность.
Microsoft решила эту проблему по-корпоративному: не исправила, а спрятала. В документации к Copilot есть мелкий шрифт про "возможные неточности", в интерфейсе — едва заметные предупреждения. Но в маркетинговых материалах — громкие заявления о "повышении продуктивности", "интеллектуальном анализе данных", "поддержке принятия решений".
Результат предсказуем: полицейские воспринимают Copilot как эксперта, а не как вероятностную машину для генерации текста. Почему? Потому что Microsoft продает его как первого, а не как второе.
Это тот же подход, что привел к провалу Copilot в других сферах — обещать невозможное, скрывать ограничения, перекладывать ответственность на пользователей.
Внимание: если вы используете Copilot или аналогичные системы для работы с любыми данными, которые могут повлиять на жизнь людей — вы играете в русскую рулетку с заряженным барабаном. Каждый вывод нужно проверять втрое тщательнее, чем если бы вы делали его вручную.
Что делать, если ИИ начал лгать о вас
Скандал с футбольными фанатами — не последний. Такие случаи будут множиться, потому что системы внедряются быстрее, чем общество успевает понять их ограничения.
Если вы столкнулись с тем, что ИИ создал о вас ложную информацию, которая используется против вас:
- Требуйте исходные данные — какие именно источники использовала система? Если их нет — это галлюцинация.
- Нанимайте экспертов по ИИ — обычный юрист не разберется в тонкостях работы нейросетей. Нужен специалист, который объяснит суду, как работает генерация текста.
- Фиксируйте все взаимодействия — сохраняйте промпты, ответы, скриншоты. Это доказательства того, что система способна галлюцинировать.
- Обращайтесь в регуляторы — не только в суд, но и в органы, контролирующие ИИ. Скоро их станет больше.
Самое главное — не пытайтесь спорить с выводом ИИ на его территории. Не доказывайте, что "вы не хулиган". Требуйте доказательств, что система вообще способна отличить хулигана от не-хулигана.
Будущее, где каждый может стать жертвой алгоритма
Этот случай — не аномалия, а новая норма. Системы ИИ проникают в правоохранительные органы, суды, социальные службы. Они обещают эффективность, но приносят коллапс доверия к информации.
Представьте мир, где:
- Вашу кредитную историю оценивает ИИ, который "помнит", что вы не выплатили кредит, которого не брали
- Ваше резюме проверяет система, которая уверена, что вы уволены за воровство (потому что так сказал Copilot)
- Ваши дети попадают под наблюдение соцслужб из-за "рисков", которые ИИ выдумал из обрывков ваших соцсетей
Звучит как антиутопия? Это уже происходит. Просто пока только с футбольными фанатами.
Решение не в том, чтобы запретить ИИ. Решение в том, чтобы требовать от компаний вроде Microsoft прозрачности о том, как работают их системы. Если Copilot может галлюцинировать — это должно быть написано не мелким шрифтом, а на главной странице. Красными буквами.
Пока этого не произойдет, каждый из нас — потенциальный "футбольный хулиган" в глазах машины, которая уверена в своей правоте больше, чем в реальности.
Следующий скандал будет не про спорт. Он будет про вашу жизнь.