Представьте, что каждый пятый ватт, который вы платите для питания своего ИИ, не доходит до GPU. Он просто превращается в тепло в медных проводах. Абсурд? Это реальность сегодняшних дата-центров. Пока мы спорим о параметрах GPT-6 или Gemini Ultra 2.0, фундаментальная проблема остаётся: инфраструктура трещит по швам.
По данным отчёта Uptime Institute за 2025 год, средний дата-центр теряет от 12% до 20% входящей электроэнергии на распределение и преобразование. Для кластера на 100 МВт это 20 МВт в никуда. Ежегодно.
Именно поэтому американские сети трещат. Спрос на вычисления для обучения моделей растёт экспоненциально, а КПД инфраструктуры застрял в прошлом веке. Решение, однако, может прийти из физики, а не из софта.
Конец эпохи меди: почему провода греются как утюги
Медь — это тупик. Её сопротивление растёт с температурой и частотой тока. В современных дата-центрах, где стойки с GPU потребляют по 50-70 кВт каждая, токи огромны. Толстенные медные шины греются, требуют мощного охлаждения, и круг замыкается: вы тратите энергию, чтобы охлаждать провода, которые греются из-за потерь энергии.
| Параметр | Традиционная медь | HTS кабель (на основе REBCO) |
|---|---|---|
| Потери на передачу (на 100 м) | 15-20% | < 1% |
| Пропускная способность | Ограничена нагревом | В 5-10 раз выше при том же сечении |
| Температура эксплуатации | До 90°C (риск пожара) | -196°C (жидкий азот, негорюч) |
| Стоимость жизненного цикла (10 лет) | Высокая (потери + охлаждение) | Снижается на 30-40% (окупаемость ~3-5 лет) |
Холодный расчёт Microsoft: от безумной идеи к Azure
В 2024 году это звучало как научная фантастика. Сегодня, в марте 2026, Microsoft разворачивает первые коммерческие сегменты дата-центров Azure на основе высокотемпературных сверхпроводников (HTS). Технология, которую все считали уделом Большого адронного коллайдера, теперь охлаждает серверы для вашего следующего запроса к Copilot.
Пилот в Аризоне показал феноменальные результаты: плотность мощности в стойке выросла в 3 раза, потому что не нужно бороться с нагревом проводки. Энергия, которую раньше съедали потери, теперь питает дополнительные GPU. Это не incremental улучшение. Это скачок.
И да, это прямая реакция на мораторий на дата-центры в США. Когда местные власти блокируют строительство новых мощностей из-за нагрузки на сеть, единственный выход — выжать максимум из того, что есть. HTS — это именно такой рычаг.
Подводные камни (или почему HTS ещё не везде)
Эйфория? Не совсем. Материал для HTS кабелей — это оксидные плёнки (REBCO), где RE — редкоземельные элементы. Их производство всё ещё дорого и не массовое. Криогенная инфраструктура — это дополнительные сложности для инженеров, привыкших к воздушному охлаждению.
- Цена кабеля: В 2026 году метр HTS кабеля стоит в 8-12 раз дороже медного аналога. Но считайте потери за 5 лет — картина меняется.
- Долговечность: Циклы охлаждения/нагрева создают механические напряжения. Гарантия на кабели пока 10-15 лет, против 30+ у меди.
- Кадры: Нужны инженеры, которые понимают и в IT, и в криогенике. Такой гибрид — большая редкость.
И всё же, альтернативы хуже. Ядерный ренессанс для ИИ решит проблему генерации, но не проблему потерь внутри дата-центра. Солнечные панели на крыше не помогут, если 20% их энергии исчезает в шинах.
Что будет дальше? Прогноз на 2027-2030
Скептики скажут, что это нишевое решение для гиперскалеров. Они ошибаются. Волна идёт сверху вниз.
- 2026-2027: Microsoft, Google, Amazon внедряют HTS в критических магистралях новых дата-центров. Экономия на счетах за электричество становится ключевым KPI для инфраструктурных команд.
- 2028-2029: Появление стандартизированных «криогенных стоек» — готовых модулей с охлаждением и сверхпроводящей разводкой. Это снизит порог входа для средних игроков.
- После 2030: HTS становится default choice для любой новой высокой плотности мощности. Медь остаётся только для периферийных и низконагруженных цепей.
Побочный эффект? Бунт против дата-центров может сойти на нет. Если объект потребляет на 20% меньше из сети при той же вычислительной мощности, местные власти и активисты успокоятся. Немного.
Итог прост. Следующий большой прорыв в ИИ будет не в архитектуре трансформеров, а в физике передачи энергии. Пока мы гоняемся за параметрами в триллионы, фундамент из меди и кремния дымится. Microsoft это поняла. Остальные просто обязаны последовать, если не хотят утонуть в счетах за электричество и протестах.
Совет инвестору: Следите не только за чипами для ИИ (Nvidia, AMD), но и за компаниями, которые производят материалы для HTS (например, American Superconductor, Fujikura) и криогенное оборудование. Их рост начнётся, когда гиперскалеры перейдут от пилотов к массовому заказу.