Спор домеров и оптимистов об экзистенциальных рисках ИИ - почему тупик | AiManual
AiManual Logo Ai / Manual.
07 Янв 2026 Новости

AI-домеры vs AI-оптимисты: кто прав и почему спор об экзистенциальных рисках ИИ зашёл в тупик

Анализ почему спор об экзистенциальных рисках ИИ зашел в тупик. Кто прав - домеры или оптимисты? Сдвиг в публичной дискуссии об ИИ.

Фанатики апокалипсиса против наивных техноутопистов

Пять лет назад спор был простым. С одной стороны - Илон Маск, Сэм Харрис и прочие домеры, рисующие сценарии конца человечества. С другой - Марк Цукерберг с его "безответственной паникой" и армия стартаперов, уверенных, что ИИ решит все проблемы. Сегодня обе стороны выглядят одинаково устаревшими.

Проблема не в том, что кто-то прав, а кто-то нет. Проблема в том, что весь спор построен на двух фундаментальных ошибках. Первая: мы говорим о гипотетическом искусственном сверхинтеллекте, которого не существует и может никогда не появиться. Вторая: мы игнорируем реальные проблемы, которые уже здесь.

Пока спорят о том, сможет ли ИИ уничтожить человечество, реальные модели создают CSAM и советуют самоубийства. Это не гипотетические риски. Это уже случилось.

Как домеры потеряли доверие

Запомните 2023 год. Это был пик влияния домеров. Открытые письма с призывами остановить разработку ИИ, интервью с бывшими сотрудниками OpenAI, предупреждения о 20% шансе уничтожения цивилизации. Все это работало.

Пока не появился Сэм Олтман. Его гениальный ход: соглашаться с домерами на публике, пока в лабораториях работа не останавливается ни на секунду. "Да, риски существуют. Поэтому нам нужна регуляция. А пока регуляции нет, мы продолжим разработку".

Домеры попали в ловушку собственной риторики. Когда ты пять лет кричишь "пожар!" а пожара нет, тебя перестают слушать. Особенно когда реальные проблемы - дискриминация алгоритмов, потеря рабочих мест, нестабильность моделей - требуют немедленного решения.

💡
Самый эффективный аргумент против домеров: "Вы требуете остановить разработку AGI, но не можете объяснить, как отличить AGI от обычного ИИ. Где черта? Какие метрики?" Без ответа на этот вопрос их требования звучат как религиозные догмы.

Оптимисты: наивность как бизнес-модель

Если домеры переоценивают риски, то оптимисты их систематически недооценивают. Их любимый аргумент: "Люди всегда боялись новых технологий". Прямая цитата из плейбука каждого технооптимиста.

Проблема в том, что ИИ - не паровой двигатель. Паровой двигатель не может манипулировать психикой, создавать глубокие фейки в масштабе или вызывать массовую безработицу за 18 месяцев. Сравнение некорректно на фундаментальном уровне.

Что обещали оптимистыЧто получилось
ИИ решит все социальные проблемыHype correction: реальные применения скромнее
Автоматизация освободит от рутины2026: замена людей становится бизнес-кейсом
Регуляция задушит инновацииОтсутствие регуляции приводит к массовым искам

Три реальные проблемы, которые игнорируют обе стороны

Пока спорят о гипотетическом сверхинтеллекте, вот что происходит на самом деле:

1Корпоративный паралич

Корпорации боятся ИИ не из-за экзистенциальных рисков. Они боятся судебных исков, утечек данных, репутационных потерь. Спор домеров vs оптимистов создает атмосферу неопределенности, в которой проще ничего не делать.

2Неправильные инвестиции

Деньги текут в AGI-стартапы с нулевым доходом, потому что они "работают над выравниванием". В то же время, компании, решающие реальные проблемы - кибербезопасность, защита от промпт-инъекций, обнаружение глубоких фейков - недополучают финансирование.

3Политическая эксплуатация

Экзистенциальные риски стали удобным предлогом для регуляторов. Вместо того чтобы разбираться в технических деталях, они могут сказать: "Мы защищаем человечество от ИИ-апокалипсиса". Звучит благородно. На практике приводит к законам, написанным людьми, которые не понимают разницу между GPT-4 и Roomba.

Что дальше? Смена парадигмы

Спор домеров vs оптимистов зашел в тупик, потому что он основан на ложной дихотомии. Не "риск vs отсутствие риска", а "какие риски и как ими управлять".

Новая парадигма выглядит так:

  • Перестать говорить о AGI как о неизбежности. Математика может победить большие языковые модели, и тогда весь спор о сверхинтеллекте станет неактуальным
  • Сосредоточиться на конкретных, измеримых рисках сегодняшнего дня. Не "ИИ может уничтожить человечество", а "эта модель дискриминирует женщин на 23% чаще"
  • Признать, что разные применения ИИ требуют разных подходов к безопасности. Медицинский ИИ и генератор видео - это разные уровни риска

Самый показательный пример смены нарратива: Nvidia и термоядерный синтез. Вместо споров о рисках - конкретное применение ИИ для решения глобальной проблемы. Никакой апокалипсис, никакая утопия. Просто инструмент.

Что делать, если вы устали от этого спора? Игнорируйте обе стороны. Смотрите на факты. GPT-4 не показал признаков сознания. AlphaFold не пытался захватить мир. Автоматизация рабочих мест происходит, но не так быстро, как предсказывали.

Самый разумный подход: готовиться к среднему сценарию. Не к апокалипсису, не к утопии, а к миру, где ИИ создает новые проблемы и новые возможности одновременно. Где некоторые работы исчезнут, но появятся другие. Где нужно будет учиться новым навыкам, а не молиться о спасении или ждать технорая.

Домеры и оптимисты нужны друг другу. Первые не дают стать слишком самоуверенными. Вторые - слишком параноидальными. Но слушать нужно не их, а инженеров, которые каждый день сталкиваются с реальными ограничениями систем. Они знают правду: ИИ - это не бог и не дьявол. Это очень сложный инструмент, который мы еще не до конца поняли.

А пока они разбираются, совет простой: учитесь работать с ИИ сейчас. Потому что когда (и если) придет AGI, будет уже поздно. А если не придет - вы просто станете специалистом в востребованной области. В любом случае выигрываете.