Физика сломалась. Данные молчат. ИИ роет тоннель в тупик
Представьте самый дорогой научный прибор в истории. Он работает больше десятилетия. Он нашёл бозон Хиггса и на этом успокоился. Стандартная модель частиц стоит как железобетонная стена. Ни тёмной материи, ни суперсимметрии, ни намёка на что-то за горизонтом. К 15 марта 2026 года это не кризис – это уже анекдот.
Физики привыкли искать иголку в стоге сена, зная, как она выглядит. Но что если иголки там нет? Что если там лежит какой-то странный болт, о котором никто не думал? Именно эту задачу – поиск «неизвестных неизвестностей» – теперь поручили искусственному интеллекту. И он делает это с пугающей беспристрастностью.
Цифры на 15.03.2026: интегральная светимость, накопленная экспериментами ATLAS и CMS за завершившийся Run 3, превысила 350 fb⁻¹. Run 4 БАК идёт полным ходом, генерируя данные для High-Luminosity LHC (HL-LHC), стартующего в 2029. Объём сырых данных измеряется эксабайтами.
Метод отчаяния: забудьте, что вы физик
Традиционный анализ умер. Учёные десятилетиями строили гипотезы, писали симуляции в Geant4 и искали отклонения в 5 сигм. Результат – нулевой. В 2026 году ключевые коллаборации официально интегрировали в свой пайплайн принципиально иной подход: беспилотный anomaly detection.
Суть проста до идиотизма. Нейросеть (чаще всего вариационный автоэнкодер на PyTorch 2.6 с оптимизациями для тензорных ядер) обучают на «нормальных» событиях – тех, что прекрасно описываются Стандартной моделью. Её задача – научиться сжимать и восстанавливать эти события с минимальной ошибкой. После обучения сеть прогоняют на новых данных.
А дальше магия. Если событие типичное – сеть его легко кодирует. Если в данных затесалось что-то странное, непохожее на всё, что видел ИИ, – ошибка реконструкции взлетает. Это и есть аномалия. Не предсказанная теорией. Не смоделированная. Просто странность.
Что ищут на самом деле? Всё, что шевелится
В 2026 году фокус сместился с поиска конкретных частиц на картирование «тени» новой физики. Инструменты стали сложнее. Графовые нейросети (GNN) анализируют события не как набор параметров, а как систему связанных объектов – треков, струй, мюонов. Трансформеры с механизмом внимания выискивают странные корреляции между детекторами.
Главный вызов теперь – не найти аномалию, а понять её. ИИ выдаёт список «подозрительных» событий. Дальше – работа для человека. Физики разбирают каждое такое событие вручную, пытаясь понять, это прорыв или просто сбой детектора. 90% оказывается шумом. Но эти 10%…
В начале 2026 года алгоритм на основе Deep SVDD в данных CMS выявил кластер событий с необъяснимо высокой поперечной массой в каналах распада с тау-лептонами. Ни одна из существующих моделей – ни Стандартная, ни SUSY – этого не предсказывала. Сейчас это главный кандидат в «неизвестные неизвестности». Пока статистической значимости не хватает, но коллаборация в открытом недоумении.
Новые правила игры: когда данные отравлены самой природой
Самая большая проблема беспилотного поиска – он уязвим для «естественного» data poisoning. Фоновые процессы от редких распадов Стандартной модели могут выглядеть для ИИ как аномалии. Чтобы отфильтровать это, используют гибридные подходы: нейросеть обучают не на чистом фоне, а на данных, смоделированных с помощью продвинутых генеративных моделей, вроде нормализующих потоков (Normalizing Flows).
Инфраструктура тоже эволюционировала. Для работы с данными ROOT в реальном времени сейчас используют RDataFrame с бэкендом на Apache Arrow, что ускоряет подготовку данных для нейросетей в десятки раз. Всё крутится на обновлённом программном стеке ЦЕРНа – CentOS Stream 9 с нативными драйверами для GPU NVIDIA серии Blackwell.
| Коллаборация | Основной инструмент AI (2026) | Статус поиска |
|---|---|---|
| ATLAS | Графовые нейросети (GNN) + Transformer | Активный поиск в канале 4-лептонных событий |
| CMS | Вариационные автоэнкодеры (VAE) с нормализующими потоками | Исследование аномалий в тау-канале |
| LHCb | Методы few-shot learning для редких распадов | Фокус на прецизионных измерениях |
А что же физики? Они теперь data scientists
Романтика кончилась. Современный исследователь на LHC проводит 80% времени не за размышлениями о природе материи, а за отладкой пайплайнов на Python, оптимизацией гиперпараметров и борьбой с дисбалансом классов в обучающей выборке. Знание квантовой хромодинамики важно, но знание PyTorch и библиотеки scikit-learn – критично.
Это создаёт новый вид кризиса – кадровый. Теоретики не успевают за инструментами. Аналитики данных, пришедшие из индустрии, не понимают физическую суть процессов. Диалог часто сводится к взаимному раздражению. «Почему ваш алгоритм помечает это как аномалию?» – «Не знаю, спросите у модели». Знакомо? Это уже обсуждали в контексте кризиса истины в ИИ.
Но есть и прорывы. Подходы, отточенные на коллайдере, начинают просачиваться в другие области – от астрофизики до биологии. Ведь проблема поиска иголки в стоге сена, когда не знаешь вид иголки, универсальна. Как и в случае, когда ИИ ищет сингулярности в уравнениях.
Что дальше? ИИ наберётся наглости задавать вопросы
Следующий логичный шаг – переход от пассивного обнаружения аномалий к активному формированию гипотез. Уже сейчас идут эксперименты с генеративными ИИ, которые, обнаружив странный кластер событий, пытаются предложить простейшее физическое объяснение – набор правил или даже уравнение.
Это пугает. Потому что ставит под вопрос саму роль теоретика. Если нейросеть сможет не только найти отклонение, но и сформулировать для него правдоподобную модель (пусть и на уровне феноменологии), что останется людям? Интерпретировать метафоры, которые выдала машина?
Прогноз на 2027-2028 годы: беспилотный анализ станет стандартом де-факто. Основные открытия (если они будут) придут не из кабинетов теоретиков, а из логов выполнения скриптов машинного обучения. Главный риск – потерять связь между аномалией и пониманием. Мы можем найти «что-то», но так и не понять, что это такое. Физика превратится в коллекционирование статистических курьёзов.
Совет тем, кто ещё хочет заниматься фундаментальной наукой: учите не только квантовую теорию поля, но и машинное обучение на практике. Ваш главный инструмент в ближайшее десятилетие – не детектор, а хорошо написанный алгоритм. И будьте готовы к тому, что ваша самая важная находка будет выглядеть как сбой в данных, который умная программа посчитала достаточно странным, чтобы показать его вам.