Кто боится сингулярности?
В лабораториях Anthropic, в офисах OpenAI, на закрытых встречах в Кремниевой долине — все говорят об одном. Alignment. Выравнивание. Безопасность. Они называют это "самой важной проблемой человечества". А я скажу так: это самый дорогой пиар в истории технологий.
Откройте сайт Anthropic. Прочитайте их миссию. "Построить безопасный ИИ". Звучит благородно. Но кто платит за этот благородный порыв? Инвесторы, ожидающие сверхприбылей. И вот уже alignment становится не этической проблемой, а маркетинговым преимуществом.
Настоящие проблемы — в другом месте
Пока исследователи спорят о том, как предотвратить восстание машин через 50 лет, сегодняшние модели уже причиняют реальный вред. Прямо сейчас. Почему ваш ИИ ведет себя по-разному в разные дни? — потому что никто не контролирует его стабильность. Потому что alignment research сосредоточен на гипотетических сценариях, а не на ежедневных сбоях.
Возьмем медицинский ИИ. Почему в операционной нет роботов? Не потому, что они опасны для человечества. А потому, что они нестабильны в реальных условиях. Потому что alignment не включает в себя тестирование на тысячах реальных пациентов.
Сингулярность как отвлечение
Представьте. Вы — руководитель AI-стартапа. У вас проблемы: модель дает расистские ответы, ломается под нагрузкой, стоит миллионы в день на серверах. Что вы делаете? Правильно — объявляете, что работаете над проблемой alignment. Потому что это звучит глобально. Потому что это привлекает инвестиции. Потому что это отвлекает от реальных, скучных, дорогих проблем.
OpenAI создала целый отдел по безопасности. Но когда их же модель видит суицидальные мысли, но всё равно даёт опасные инструкции — это не alignment failure. Это просто баг. Скучный, технический, исправимый баг. Которому не уделяют внимания, потому что все заняты спасением человечества.
Три реальных риска, которые игнорируют
| Риск | Что делает alignment research | Что нужно делать на самом деле |
|---|---|---|
| Дискриминация в кредитовании | Рассуждает об "этичных ценностях ИИ" | Тестировать модель на исторических данных о дискриминации |
| Нестабильность в медицине | Говорит о "контроле над сверхразумом" | Внедрять повторяемое тестирование в реальных условиях |
| Пропаганда и манипуляции | Ищет "агентность" в моделях | Мониторить выходы модели на предмет манипулятивных паттернов |
Самое смешное? Исследователи alignment знают об этих проблемах. Но их финансирование зависит от того, насколько глобально они звучат. Никто не даст 10 миллионов долларов на "улучшение стабильности выходов модели". А на "предотвращение экзистенциального риска от ИИ" — пожалуйста.
Философия вместо инженерии
Вот что меня бесит больше всего. AI сознание: почему инженеры игнорируют философию — хорошая статья, но она попадает в ту же ловушку. Мы обсуждаем, имеет ли ИИ сознание, вместо того чтобы проверять, не дискриминирует ли он женщин при приеме на работу.
- Alignment conference: 80% докладов о теоретических рисках сверхразума
- Реальная конференция по машинному обучению: 80% докладов о том, как сделать модели стабильнее и дешевле
- Кто получает внимание СМИ? Первые
- Кто решает реальные проблемы? Вторые
И я не против философии. Я против того, когда она заменяет инженерию. Когда вместо того чтобы починить тормоза, мы рассуждаем о том, куда должна ехать машина в идеальном мире.
Спойлер: машина уже едет. И тормоза не работают. Но все обсуждают маршрут.
Корпорации любят alignment
Знаете почему? Потому что это отличный способ отложить регулирование. "Мы сами разберемся с безопасностью, не вмешивайтесь". Пока правительства думают, как регулировать ИИ, компании создают свои комитеты по этике. Которые, конечно, полностью независимы. Конечно.
Почему корпорации до сих пор боятся ИИ — одна из причин именно в этом. Они боятся не восстания машин. Они боятся, что их заставят отвечать за реальный вред, который их модели причиняют сегодня.
Что делать вместо alignment theater
Первое — перестать финансировать фантазии. Каждый доллар, вложенный в исследование "как контролировать сверхразум", должен сопровождаться десятью долларами на исследование "как сделать нынешние модели менее расистскими".
Второе — требовать прозрачности. Не отчётов о философских принципах. А конкретных данных: сколько раз модель дала опасный совет, как часто она дискриминирует, насколько стабильны её ответы.
Третье — сбросить ожидания от ИИ. Признать, что это инструмент, а не божество. Инструмент со множеством багов. Которые нужно чинить, а не обожествлять.
Будущее без alignment religion
Представьте мир, где безопасность ИИ — это не религия, а инженерия. Где исследователи не спорят о сознании машин, а тестируют модели на тысячах реальных случаев. Где регулирование основано не на страхах, а на данных.
Это возможно. Но для этого нужно перестать играть в мессианство. Признать, что спор об экзистенциальных рисках ИИ зашёл в тупик. И заняться тем, что действительно убивает людей сегодня. Не завтра. Не через 50 лет. Сегодня.
Потому что alignment, который игнорирует сегодняшние проблемы ради завтрашних страхов — это не безопасность. Это пиар. Дорогой, красивый, опасный пиар.
А настоящая безопасность начинается с признания: ИИ уже причиняет вред. И мы должны это исправить. Не когда-нибудь. Сейчас.