Математика проигрывает гонку
Откройте любой свежий препринт на arXiv. Посмотрите на раздел "Теоретические результаты". Чаще всего там будет что-то вроде: "Мы предполагаем, что...", "При определённых условиях...", "В идеализированной модели...". А потом сразу переходят к экспериментам, которые работают вопреки всем предположениям.
Это не ошибка. Это симптом.
Современное машинное обучение движется так быстро, что математическая теория не успевает даже сформулировать вопросы, не говоря уже об ответах. Пока теоретики доказывают сходимость градиентного спуска для двухслойной сети, инженеры обучают трансформеры на триллионах токенов, которые вообще не должны работать по всем каноническим учебникам.
Горький урок Ричарда Саттона звучит сегодня актуальнее, чем в 2019: вычислительные методы, основанные на масштабировании, почти всегда побеждают подходы, основанные на человеческом знании. Даже если это знание — строгая математика.
Почему так получилось?
Давайте без иллюзий. Математика в ML сегодня — это не фундамент, а декорация. Красивая, иногда полезная, но не несущая.
Три причины:
- Сложность систем. Современные модели — это не аналитические функции, которые можно аккуратно продифференцировать. Это чёрные ящики с миллиардами параметров, где даже понятие "градиент" становится абстракцией.
- Эмпирический драйв. Когда у вас есть доступ к тысячам GPU и петабайтам данных, проще запустить эксперимент, чем ждать год, пока теоретик что-то докажет. Результаты публикуются быстрее.
- Инженерная культура. В крупных лабораториях ценят тех, кто "запускает и смотрит". Математическая строгость? Это для академических журналов, а не для SOTA.
Вспомните историю с категориальным провалом. Математическая ошибка в фундаменте, но модели всё равно работают. Или нестабильность поведения ИИ — теоретически не должно быть, а на практике есть.
Математика как сервис
Здесь начинается интересное. Математика не исчезает. Она меняет роль.
Раньше было: математическая теория → алгоритм → реализация. Сегодня: эмпирическое открытие → масштабирование → постфактумное объяснение математикой.
Посмотрите на нейроалгоритмическое мышление. Нейросети захватывают классические алгоритмы, но не потому, что кто-то математически доказал их оптимальность. Они просто работают лучше в хаотичных реальных данных.
Или возьмите AI for Math от Google. ИИ учится думать как математик, но сам процесс обучения — чистая эмпирика. Ирония в том, что математика становится объектом изучения для систем, которые не следуют математическим принципам в своём устройстве.
Что ломается без теории?
Всё. Но медленно.
Без математического фундамента мы получаем системы, которые:
- Непредсказуемо себя ведут (помните тест (c/t)^n?)
- Требуют колоссальных вычислительных ресурсов без понимания, почему именно столько
- Создают кризис бенчмарков — мы не знаем, что именно измеряем
- Не поддаются систематическому улучшению. Каждый прогресс — это новый хак, а не следствие из теоремы.
Самое опасное: мы строим инфраструктуру будущего на песке. Кто заплатит за электричество для систем, эффективность которых мы не понимаем? Инвестиции в чипы исчисляются сотнями миллиардов, а теоретическая основа — слабее, чем у парового двигателя времён промышленной революции.
Новая математика для новой реальности
Старая математика не работает. Нужна новая.
Не та, что доказывает теоремы для идеализированных случаев. А та, что:
| Старая математика ML | Нужная математика ML |
|---|---|
| Доказывает сходимость для малых моделей | Объясняет emergent-свойства больших систем |
| Работает с идеальными данными | Справляется с реальным шумом и артефактами |
| Предсказывает поведение | Диагностирует сбои (как в биомедицинских ИИ) |
| Изолирована от инженерии | Встроена в цикл разработки (см. гайд по интеграции) |
Уже появляются ростки. ИИ находит сингулярности, которые математики искали веками. ML атакует гипотезу Римана. Но это пока исключения.
Что делать прямо сейчас?
Если вы исследователь:
- Перестаньте доказывать теоремы, которые никто не будет применять. Вместо этого изучайте аномалии реальных систем.
- Работайте с инженерами. Не над ними, не под ними — вместе. Ваша математика должна решать их проблемы, а не создавать красивые абстракции.
- Смотрите на прикладные области, где ошибки стоят дорого. Там ещё есть место для строгости.
Если вы инженер:
- Не отвергайте математику как "академическую ерунду". Без неё вы будете бесконечно наступать на одни и те же грабли.
- Формулируйте проблемы в терминах, понятных математикам. Не "модель глючит", а "имеем нестабильность в таких-то условиях".
- Требуйте объяснений. Если метод работает, спросите почему. Даже если ответ будет приблизительным — это лучше, чем ничего.
Самый важный шаг: признать, что текущий разрыв между теорией и практикой — это не временная аномалия, а новая норма. И строить исследовательские программы, образовательные курсы и инженерные процессы с учётом этой реальности.
Куда это ведёт?
Через пять лет математика в ML будет выглядеть иначе. Она станет:
- Статистической физикой сложных систем. Не анализ функций, а изучение emergent-поведения.
- Диагностическим инструментом. Не для предсказания успеха, а для поиска причин failure.
- Мостом между доменами. Как в философских спорах о сознании ИИ — математика станет языком, на котором говорят инженеры, философы и нейробиологи.
Парадокс: чтобы математика снова стала важной для ML, она должна перестать быть той математикой, которую мы знаем. Она должна стать чем-то более гибким, более эмпирическим, более... ненаучным в традиционном смысле.
Или, как говорится в одной из наших статей, нужно вычислять, а не предсказывать.
Математика не умрёт. Она эволюционирует. И те, кто поймёт это первыми, получат преимущество в новой реальности, где теоретические знания снова станут ценными — но только если они будут решать реальные проблемы, а не создавать красивые доказательства для несуществующих миров.