Когда ИИ проектирует чипы: от мечты к кошмару
На прошлой неделе в одной из лабораторий Сан-Хосе инженер получил от нейросети GPT-5 проект FIFO-буфера на SystemVerilog. Он ожидал компактный блок, занимающий несколько тысяч логических вентилей. Вместо этого инструмент синтеза выдал оценку площади: 12 квадратных миллиметров на 5-нм техпроцессе.
Для справки: это как спроектировать сарай, а получить целый торговый центр. На одной кремниевой пластине таких "сараев" поместилось бы штук десять. Физически - абсурд. Финансово - катастрофа. А всё потому, что ИИ, обученный на тоннах кода с GitHub, не понимает разницы между софтом и железом.
Инцидент произошел 18 апреля 2026 года при использовании GPT-5 через API OpenAI с последними обновлениями для генерации кода. Модель, по словам инженеров, "уверенно" сгенерировала синтаксически правильный, но семантически безумный код.
Что сломалось? D-триггеры, триггеры, everywhere
Код для простого асинхронного FIFO содержал классическую ошибку: вместо использования памяти SRAM или регистровых файлов, ИИ реализовал буфер целиком на D-триггерах. Каждый бит данных хранился в отдельном триггере. Для буфера глубиной 1024 и шириной 32 бита это 32 768 триггеров.
В реальном аппаратном дизайне так не делают никогда. Триггеры жрут площадь и мощность. Для памяти используют специализированные блоки. Но GPT-5, обученный на примерах кода, часто видел в обучающих данных триггеры в тестовых бенчмарках и решил, что это норма.
"Он сгенерировал что-то вроде архитектуры 'Обратного Хэша', но без намёка на эффективность", - прокомментировал один из экспертов, вспоминая нашу статью про нейросети без умножений. Там хотя бы была логика. Здесь - просто груда бесполезных элементов.
Контекст хайпа: почему все вдруг поверили в ИИ для железа
Последние два года нас кормили историями успеха. Cognichip привлёк $60 млн на ИИ для проектирования чипов. Ricursive Intelligence обещает революцию. Даже CERN использует HLS4ML для преобразования нейросетей в кремний, как мы писали в статье про крошечные модели против коллайдера.
Но там ИИ оптимизирует уже существующие архитектуры. Или работает в тесной связке с инженерами. Слепая же генерация кода "с нуля" по текстовому промпту - это другой уровень риска.
И дело не только в площади. Сгенерированный код имел латентность в 15 тактов для записи в FIFO (вместо 1). Пропускная способность - смехотворная. Если бы это был чип для AI-кластеров, как нанофотонный ИИ-чип, то вся система встала бы. Скорость света не спасла бы от такой архитектуры.
Почему даже GPT-5 не справляется с железом?
Ответ прост: данные. Большинство LLM обучаются на публичных репозиториях кода. А там SystemVerilog встречается либо в учебных примерах (часто упрощённых), либо в обрывках, выложенных для демонстрации. Промышленные RTL-коды, прошедшие сотни часов симуляции и верификации, в открытом доступе не лежат.
ИИ учится на хламе. И генерирует хлам, который выглядит как код. Синтаксис идеален. Семантика - провал.
| Что просили | Что получили | Результат |
|---|---|---|
| Компактный FIFO на SRAM | FIFO на D-триггерах | Площадь x50 от ожидаемой |
| Латентность 1 такт | Латентность 15 тактов | Пропускная способность 67 МБ/с вместо 10 ГБ/с |
| Код, готовый к синтезу | Код, требующий полной переработки | Потеря 3 недель на исправление |
Специализированные модели, вроде InCoder-32B-Thinking, показывают себя лучше для встраиваемых систем. Но и они далеки от идеала. Проблема в фундаментальном разрыве между текстовым паттерном и физической реальностью.
Что делать инженерам в 2026 году? Правила выживания
Первое: никогда не запускать синтез сгенерированного кода без ручной проверки. Второе: использовать ИИ только для шаблонных, хорошо документированных блоков. Третье: требовать от модели не только код, но и объяснение, почему выбрана та или иная архитектура.
- Всегда спрашивайте про альтернативы. "Почему FIFO на триггерах, а не на SRAM?" Если ИИ не может ответить - код в корзину.
- Проверяйте временные параметры. Задавайте конкретные ограничения по таймингу в промпте.
- Используйте симуляцию на раннем этапе. Не доверяйте статической оценке площади. Запустите тестовый бенчмарк.
Как показал случай с SystemVerilog, разбивающим ИИ в пух и прах, даже самые продвинутые модели пасуют перед аппаратными ограничениями. Слепое доверие здесь - прямой путь к миллионным убыткам.
Будущее: когда ИИ всё-таки научится?
Оптимисты говорят, что к концу 2026 года появятся модели, обученные на синтетических данных от симуляторов и реальных промышленных проектах. Пессимисты (и большинство практикующих инженеров) считают, что ИИ останется лишь продвинутым автодополнением.
Мой прогноз: прорыв случится не в области больших языковых моделей, а в гибридных системах, где ИИ управляет инструментами EDA (Electronic Design Automation). Представьте, что нейросеть не пишет код, а руководит цепочкой синтеза, подбирая параметры для существующих генераторов IP-ядер. Как в истории с сборкой устройства без инструкций, но на уровне RTL.
А пока что запомните: если ИИ предлагает вам чип размером с участок, возможно, он подсознательно советует бросить микроэлектронику и заняться сельским хозяйством. Шутка. Но в каждой шутке...
Проверяйте каждый сгенерированный модуль. Считайте площадь. Считайте мощность. Симулируйте до посинения. И не верьте тексту, который выглядит правильно. Железо - это физика, а не литература.