Nvidia Vera Rubin: в 4 раза эффективнее Blackwell, в 10 раз дешевле инференс | AiManual
AiManual Logo Ai / Manual.
20 Янв 2026 Новости

Vera Rubin от Nvidia: чип, который переписывает правила игры. И ценник

Nvidia анонсировала чип Vera Rubin на CES 2026. Он в 4 раза эффективнее Blackwell для обучения и в 10 раз дешевле для инференса. Детали, сравнение, последствия.

Дженсен Хуанг сделал это снова. Всего через 90 дней после того, как мир начал осваивать Blackwell, на CES 2026 он представил его убийцу — архитектуру Vera Rubin. И цифры на слайдах заставили замолчать даже самых циничных инженеров в зале.

Не эволюция. Революция с ценником

В теории, переход от Hopper к Blackwell выглядел как скачок. На практике — он оказался лишь разминкой. Vera Rubin, названный в честь астронома, открывшего темную материю, обещает сделать с затратами на AI то же самое — сделать невидимыми.

Архитектура Эффективность обучения (TFLOPS/ватт) Относительная стоимость инференса Анонс
Hopper (H100) 1x (база) 1x 2022
Blackwell (B200) ~2.5x ~0.5x Q1 2025
Vera Rubin (VR1) ~10x (от Hopper) / ~4x (от Blackwell) ~0.1x (от Hopper) / ~0.2x (от Blackwell) CES 2026 (20.01.2026)

Проще говоря: если вы только что заказали кластер на Blackwell для обучения новой модели — вам, вероятно, стоит отменить заказ. Или пересмотреть бизнес-план с учетом того, что конкуренты получат вчетверо более дешевую вычислительную мощность уже в конце 2026 года.

Это не просто "немного лучше". При заявленной эффективности, дата-центр для обучения флагманской LLM на Vera Rubin будет потреблять энергии как крупный жилой дом, а не как небольшой город, как это было с Hopper. Экологи будут в восторге. Инвесторы в энергосети — не очень.

Как они это сделали? (И причем тут AETHER-X)

Секрет не в одном волшебном транзисторе. Это системный подход, который Nvidia оттачивала последние два года. И ключевая часть головоломки — архитектура AETHER-X, анонсированная прошлой осенью.

AETHER-X — это не просто ускорение инференса в 4.9 раза. Это принципиально новая организация памяти и потоков данных внутри чипа, которая минимизирует простои. В Vera Rubin эта технология доведена до ума и интегрирована на аппаратном уровне.

Вторая часть — радикально новая система охлаждения и энергоподачи, которая позволяет чипу работать на значительно более высоких частотах без перегрева. Третья — глубоко оптимизированные ядра для работы с форматами данных NVFP4 и MXFP4, которые теперь стали нативными.

💡
Практический смысл: проекты вроде llama.cpp, которые только-только добавили поддержку MXFP4 для Blackwell, получат дополнительный, кратный прирост скорости на железе Vera Rubin «из коробки». Апгрейд будет болезненным, но неизбежным.

Кому сейчас больно? (Спойлер: почти всем)

1. Ранние adopters Blackwell. Те, кто успел купить системы на B200 по стартовым ценам, смотрят на свои инвестиции как на стремительно обесценивающийся актив. Окупаемость их кластеров только что удлинилась на годы. О том, как цена ушла в отрыв, теперь будут вспоминать с горькой иронией.

2. Облачные провайдеры. Их бизнес-модель, построенная на аренде GPU-времени, основана на постепенном устаревании железа. Vera Rubin сжимает этот цикл до неприличных масштабов. Зачем арендовать старый Blackwell, если через полгода можно будет получить в 10 раз более дешевый инференс на Rubin?

3. Конкуренты. Особенно китайские. Пока Huawei Ascend и Cambricon пытались догнать Blackwell по производительности, Nvidia просто перепрыгнула на следующую ветку эволюции. Разрыв не сократился — он стал пропастью.

4. Разработчики потребительского железа. Заявления о том, что разница в $700 — а стоит ли игра свеч, теперь звучат иначе. За эти деньги можно будет получить доступ к инференс-мощностям, которые раньше были доступны только в дата-центрах.

Что это значит для вас? (Даже если вы не покупаете кластеры)

Стоимость AI-сервисов рухнет. Все эти чат-боты, генераторы изображений и видео, персональные ассистенты станут в разы дешевле в эксплуатации. Подписки могут подешеветь, а бесплатные лимиты — вырасти.

Локальный AI станет нормой. Тот самый RTX 2000 Pro Blackwell 16GB для локальных LLM? Его младший брат на архитектуре Rubin сможет запускать модели, которые сегодня едва помещаются в 80 ГБ.

Фокус сместится с железа на данные и алгоритмы. Когда вычислительный ресурс перестает быть главным ограничением, на первый план выходит качество данных, архитектура моделей и эффективность кода. Бенчмарки окончательно перейдут от качества к секундам и долларам.

Ирония в том, что Nvidia, возможно, слишком преуспела. Резкое падение стоимости инференса ускорит консолидацию рынка облачных API. Зачем строить свою инфраструктуру, если можно арендовать Rubin в 10 раз дешевле, чем Blackwell сегодня? Их собственные клиенты могут начать терять мотивацию к большим капитальным затратам.

А что с ценой? (Вот где собака зарыта)

Дженсен Хуанг на сцене много говорил об эффективности, но удивительно мало — о цене за чип. И это главный вопрос.

Если Nvidia продаст Vera Rubin по цене, сопоставимой с Blackwell, их маржинальность взлетит до небес. Если же они решат сохранить ценник, чтобы не убивать спрос на остатки Blackwell, — они искусственно затормозят adoption революционной технологии.

Судя по тому, как быстро они "убили" Blackwell, в Nvidia понимают, что игра ведется не за текущий квартал, а за доминирование в следующем десятилетии. Вероятнее всего, мы увидим агрессивную ценовую политику, особенно для инференс-ориентированных конфигураций, чтобы максимально быстро захватить рынок и сделать переход конкурентов экономически нецелесообразным.

Так что, если вы считали реальную стоимость Blackwell, можете смело делить итоговую цифру на 4 для обучения и на 10 для инференса. И начинать планировать бюджет на 2027 год с этой новой математикой.

Остается один вопрос: что они припасли на CES 2027?