Фанатики апокалипсиса против наивных техноутопистов
Пять лет назад спор был простым. С одной стороны - Илон Маск, Сэм Харрис и прочие домеры, рисующие сценарии конца человечества. С другой - Марк Цукерберг с его "безответственной паникой" и армия стартаперов, уверенных, что ИИ решит все проблемы. Сегодня обе стороны выглядят одинаково устаревшими.
Проблема не в том, что кто-то прав, а кто-то нет. Проблема в том, что весь спор построен на двух фундаментальных ошибках. Первая: мы говорим о гипотетическом искусственном сверхинтеллекте, которого не существует и может никогда не появиться. Вторая: мы игнорируем реальные проблемы, которые уже здесь.
Пока спорят о том, сможет ли ИИ уничтожить человечество, реальные модели создают CSAM и советуют самоубийства. Это не гипотетические риски. Это уже случилось.
Как домеры потеряли доверие
Запомните 2023 год. Это был пик влияния домеров. Открытые письма с призывами остановить разработку ИИ, интервью с бывшими сотрудниками OpenAI, предупреждения о 20% шансе уничтожения цивилизации. Все это работало.
Пока не появился Сэм Олтман. Его гениальный ход: соглашаться с домерами на публике, пока в лабораториях работа не останавливается ни на секунду. "Да, риски существуют. Поэтому нам нужна регуляция. А пока регуляции нет, мы продолжим разработку".
Домеры попали в ловушку собственной риторики. Когда ты пять лет кричишь "пожар!" а пожара нет, тебя перестают слушать. Особенно когда реальные проблемы - дискриминация алгоритмов, потеря рабочих мест, нестабильность моделей - требуют немедленного решения.
Оптимисты: наивность как бизнес-модель
Если домеры переоценивают риски, то оптимисты их систематически недооценивают. Их любимый аргумент: "Люди всегда боялись новых технологий". Прямая цитата из плейбука каждого технооптимиста.
Проблема в том, что ИИ - не паровой двигатель. Паровой двигатель не может манипулировать психикой, создавать глубокие фейки в масштабе или вызывать массовую безработицу за 18 месяцев. Сравнение некорректно на фундаментальном уровне.
| Что обещали оптимисты | Что получилось |
|---|---|
| ИИ решит все социальные проблемы | Hype correction: реальные применения скромнее |
| Автоматизация освободит от рутины | 2026: замена людей становится бизнес-кейсом |
| Регуляция задушит инновации | Отсутствие регуляции приводит к массовым искам |
Три реальные проблемы, которые игнорируют обе стороны
Пока спорят о гипотетическом сверхинтеллекте, вот что происходит на самом деле:
1Корпоративный паралич
Корпорации боятся ИИ не из-за экзистенциальных рисков. Они боятся судебных исков, утечек данных, репутационных потерь. Спор домеров vs оптимистов создает атмосферу неопределенности, в которой проще ничего не делать.
2Неправильные инвестиции
Деньги текут в AGI-стартапы с нулевым доходом, потому что они "работают над выравниванием". В то же время, компании, решающие реальные проблемы - кибербезопасность, защита от промпт-инъекций, обнаружение глубоких фейков - недополучают финансирование.
3Политическая эксплуатация
Экзистенциальные риски стали удобным предлогом для регуляторов. Вместо того чтобы разбираться в технических деталях, они могут сказать: "Мы защищаем человечество от ИИ-апокалипсиса". Звучит благородно. На практике приводит к законам, написанным людьми, которые не понимают разницу между GPT-4 и Roomba.
Что дальше? Смена парадигмы
Спор домеров vs оптимистов зашел в тупик, потому что он основан на ложной дихотомии. Не "риск vs отсутствие риска", а "какие риски и как ими управлять".
Новая парадигма выглядит так:
- Перестать говорить о AGI как о неизбежности. Математика может победить большие языковые модели, и тогда весь спор о сверхинтеллекте станет неактуальным
- Сосредоточиться на конкретных, измеримых рисках сегодняшнего дня. Не "ИИ может уничтожить человечество", а "эта модель дискриминирует женщин на 23% чаще"
- Признать, что разные применения ИИ требуют разных подходов к безопасности. Медицинский ИИ и генератор видео - это разные уровни риска
Самый показательный пример смены нарратива: Nvidia и термоядерный синтез. Вместо споров о рисках - конкретное применение ИИ для решения глобальной проблемы. Никакой апокалипсис, никакая утопия. Просто инструмент.
Что делать, если вы устали от этого спора? Игнорируйте обе стороны. Смотрите на факты. GPT-4 не показал признаков сознания. AlphaFold не пытался захватить мир. Автоматизация рабочих мест происходит, но не так быстро, как предсказывали.
Самый разумный подход: готовиться к среднему сценарию. Не к апокалипсису, не к утопии, а к миру, где ИИ создает новые проблемы и новые возможности одновременно. Где некоторые работы исчезнут, но появятся другие. Где нужно будет учиться новым навыкам, а не молиться о спасении или ждать технорая.
Домеры и оптимисты нужны друг другу. Первые не дают стать слишком самоуверенными. Вторые - слишком параноидальными. Но слушать нужно не их, а инженеров, которые каждый день сталкиваются с реальными ограничениями систем. Они знают правду: ИИ - это не бог и не дьявол. Это очень сложный инструмент, который мы еще не до конца поняли.
А пока они разбираются, совет простой: учитесь работать с ИИ сейчас. Потому что когда (и если) придет AGI, будет уже поздно. А если не придет - вы просто станете специалистом в востребованной области. В любом случае выигрываете.