Китайский ИИ 2026: как MoE и локальные чипы обходят санкции США | AiManual
AiManual Logo Ai / Manual.
15 Мар 2026 Новости

Архитектурные тренды в китайском ИИ: почему MoE и местные чипы стали ответом на санкции

DeepSeek R1, Kimi K2 и китайские чипы. Почему архитектура Mixture of Experts стала оружием Китая в войне за технологическое превосходство. Анализ на 15 марта 20

Санкции - лучший мотиватор. Китайский ИИ доказал это в 2026

Забудьте про копирование Запада. К 2026 году китайские AI-лаборатории не просто догнали конкурентов - они начали играть по своим правилам. Правилам, которые диктует не стремление к красоте архитектуры, а суровая необходимость обходиться без последних чипов Nvidia.

Пока в Кремниевой долине обсуждали, какой будет GPT-5, в Шэньчжэне и Пекине уже запускали модели на архитектуре, которая делает слабое железо сильным. Mixture of Experts (MoE) перестала быть академической диковинкой. Она стала промышленным стандартом выживания.

Интересный парадокс: экспортный контроль США на чипы не замедлил китайский ИИ, а заставил его эволюционировать в другую, более эффективную форму. Как если бы запрет на бензин заставил изобрести электромобиль раньше времени.

MoE: архитектура для бедных? Или для умных?

Вот простая математика, которую усвоил каждый китайский инженер к 2026 году. Обучить плотную модель типа GPT-4 на 1.7 триллиона параметров - нужно сумасшедшее количество чипов H100. Которых у вас нет. Санкции.

Решение? MoE. Взять модель поменьше, но добавить к ней "комитет экспертов" - небольшие нейросетевые модули, которые активируются только когда нужны. В статье про MoE-стандарт мы подробно разбирали механику. На практике это выглядит так: для ответа на вопрос про квантовую физику активируется один набор нейронов, для сочинения хайку - другой.

💡
DeepSeek R1, анонсированный в январе 2026, использует 16 экспертов при общих 236 миллиардах параметров. Но во время инференса активны только 2-3. Это снижает требования к памяти и вычислительной мощности в 5-7 раз по сравнению с плотной архитектурой аналогичного качества.

Kimi K2 от Moonshot AI пошел дальше. Их архитектура - это не просто статичный набор экспертов, а динамическая маршрутизация, которая учится, какие эксперты лучше работают вместе. MoE-мания захватила Китай не потому, что это модно. Потому что это работает на их железке.

Железная воля: Ascend, Biren и другие герои

А теперь главный трюк. MoE-архитектуры идеально легли на китайские чипы. Не потому, что Huawei Ascend 910B так уж хорош для трансформеров (он все еще отстает от H100), а потому что китайские модели изначально проектировались под ограничения этого железа.

Посмотрите на Zhipu AI. Их новая модель GLM-4X, выпущенная в феврале 2026, работает исключительно на инфраструктуре Huawei. Ноль американских чипов. Как они этого добились? Вот подробный разбор их подхода.

Китайский чип Производитель Ключевая особенность для MoE Статус на 15.03.2026
Ascend 920 Huawei Специализированные ядра для разреженных вычислений Серийное производство
Biren BR104 Biren Technology Архитектура, оптимизированная под динамическую маршрутизацию Массовые поставки с Q4 2025
MetaX C580 MetaX (бывшая Cambricon) Низкая задержка при переключении между экспертами Тестируется в дата-центрах Alibaba

Это не "подражание Nvidia". Это параллельная эволюция. Западные чипы создавались для плотных матричных умножений. Китайские - для разреженных, нерегулярных вычислений, которые как раз характерны для MoE.

DeepSeek R1 и Kimi K2: новые правила игры

Давайте посмотрим на конкретные модели. DeepSeek R1, о котором все говорят с начала 2026, - это не просто очередной LLM. Это демонстрация того, как работает вся экосистема.

  • Обучен на кластере из 12,000 чипов Ascend 920 (никаких H100)
  • Использует кастомный фреймворк для MoE, который Huawei разрабатывала с 2024 года
  • Показывает результаты на уровне GPT-4.5 в бенчмарках, но при стоимости инференса в 3 раза ниже
  • Полностью открытая архитектура - Китай делает ставку на open-source, как объяснял ЛеКун в Давосе

Kimi K2 пошел другим путем. Их фишка - контекстное окно в 1 миллион токенов, но реализованное так, чтобы не убивать китайские чипы. Вместо того чтобы грузить всю внимательность на GPU, они используют иерархическую систему экспертов. Короткий контекст обрабатывают одни эксперты, длинные зависимости - другие.

Ирония ситуации: санкции США заставили Китай развивать именно те архитектуры, которые в долгосрочной перспективе могут оказаться более эффективными. Плотные модели Запада требуют все больше чипов. MoE-модели Китая учатся делать больше с меньшим количеством вычислений.

Что будет, когда санкции ослабнут?

Вот самый интересный вопрос. США постепенно ослабляют экспортный контроль, как мы описывали в предыдущем материале. Nvidia снова может поставлять в Китай специальные версии чипов. Что сделают китайские компании?

Полагаю, они не откажутся от своего пути. За два года они построили полную stack-экосистему: от чипов до фреймворков, оптимизированных под MoE. Переход на западное железо потребует переписывания всего.

Более того, у китайских моделей появилось конкурентное преимущество - они дешевле в эксплуатации. И это не технологическое, а архитектурное превосходство. Как отмечали в Anthropic, западные компании начинают рассматривать китайские подходы как потенциально более перспективные.

Прогноз на 2027: разделение AI-ландшафта

К концу 2027 мы увидим не конвергенцию, а дивергенцию. Два разных пути развития ИИ:

  1. Западный путь: все более плотные модели, требующие все более мощных чипов. Погоня за параметрами любой ценой.
  2. Китайский путь: разреженные MoE-архитектуры, оптимизация под энергоэффективность и стоимость инференса.

И вот что важно: второй путь может оказаться более устойчивым. Когда закон Мура окончательно упрется в физические ограничения, умение делать больше с меньшими ресурсами станет ключевым навыком.

Совет для западных компаний? Не стоит недооценивать "вынужденные инновации". То, что начиналось как необходимость обходиться без Nvidia, может закончиться созданием архитектур, которые сделают сами чипы Nvidia менее relevant. Иногда ограничения - это не барьер, а трамплин. Китайский ИИ в 2026 году это доказал.

Подписаться на канал