DeepSeek-R1: 86-страничный отчёт раскрывает архитектуру и обучение | Анализ | AiManual
AiManual Logo Ai / Manual.
07 Янв 2026 Новости

Глубокий разбор обновлённого отчёта DeepSeek-R1: что нового в 86 страницах

Полный разбор обновлённого технического отчёта DeepSeek-R1 (arXiv:2501.12948). Что скрывали 22 страницы и что теперь известно об архитектуре, данных и тренировк

От 22 до 86 страниц: что они скрывали все это время?

Вчера в AI-сообществе случился тихий взрыв. Команда DeepSeek обновила технический отчёт по своей модели R1 на arXiv. Версия v1 скромно умещалась в 22 страницы. Новая версия - монстр на 86 страницах. Разница в 64 страницы - это не просто детали. Это признание: раньше они нам что-то недоговаривали.

Идентификатор arXiv:2501.12948. Если вы качали старый PDF - удаляйте. Новый документ переписывает половину того, что мы знали об этой модели.

Главный вопрос: почему сейчас? Конкуренция с OpenAI и Google обостряется, и китайские разработчики, кажется, решили перейти к политике максимальной открытости. Или им просто надоели вопросы на форумах.

Архитектура: не просто ещё одна трансформерная модель

В старой версии отчёта архитектура описывалась общими фразами. Новая версия выдаёт конкретику, от которой у инженеров мурашки по коже. Оказывается, DeepSeek-R1 использует модифицированную версию архитектуры, которую в нашем разборе deep research агентов мы называли "гибридной". Но детали...

Компонент Старая версия (22 стр.) Новая версия (86 стр.)
Размер контекста "Длинный" 128K токенов, с оптимизациями для 1M+
Активации Не указано SwiGLU с кастомными модификациями
Нормализация RMSNorm DeepNorm (с детальной настройкой коэффициентов)

Самое интересное - раздел про sparse attention. Раньше это была одна строчка. Теперь - 14 страниц математики, графиков и сравнений. Они не просто используют существующие подходы - они их ломают и собирают заново. Если вы пытались запустить DeepSeek в llama.cpp, то поймёте, о чём я. Эти патчи теперь имеют объяснение.

! Тренировочные данные: масштаб пугает

Раньше: "Мы использовали разнообразные данные". Теперь: 67 страниц про датасеты, их очистку, балансировку и странные фильтры, о которых никто раньше не думал. Общий объём данных? Они всё ещё не называют точную цифру, но намекают, что она "значительно больше, чем у предыдущих открытых моделей".

  • Код: не только GitHub, но и внутренние репозитории китайских компаний (это объясняет хорошую работу с азиатскими языками)
  • Научные статьи: полные тексты, а не только абстракты. Включая arXiv, но и китайские научные базы
  • Диалоги: они собрали и разметили диалоги с платформ, о которых вы не слышали (и слава богу)
💡
Интересный факт: они потратили больше времени на очистку данных, чем на саму тренировку. Их фильтры удаляют не только мусор, но и "слишком простые" примеры, которые могут ухудшить качество модели. Это противоречит общепринятой практике.

Инфраструктура: железо имеет значение

Наконец-то они раскрыли детали тренировочного кластера. Это не просто "мы использовали NVIDIA A100". Это специфическая конфигурация с китайскими сетевыми технологиями, которая объясняет, почему китайские AI-чипы до сих пор не могут полноценно конкурировать в таких задачах. Они используют кастомные плагины для коммуникации между GPU, которые уменьшают задержки на 40% по сравнению со стандартными решениями.

Важный момент: они честно пишут о проблемах. Раздел "Failure Analysis" занимает 8 страниц. Сбои железа, ошибки синхронизации, потери данных - всё задокументировано. Это редкая откровенность в индустрии.

Что это значит для нас, обычных смертных?

Во-первых, теперь мы понимаем, почему модель такая стабильная. Архитектурные решения, которые казались странными, получили объяснение. Во-вторых, это учебник по построению больших моделей. Не такой, как манипулятивные промпты для заголовков, а настоящий инженерный документ.

Для разработчиков, которые строят deep research агентов, эта информация бесценна. Понимание внутреннего устройства модели помогает создавать более эффективные промпты и системы извлечения информации.

А что с производительностью?

Они добавили новые бенчмарки. Особенно интересны тесты на длинных контекстах - до 1 миллиона токенов. Результаты? Модель не просто запоминает - она действительно использует информацию из всего контекста. Это меняет правила игры для задач вроде анализа SEC filings или больших юридических документов.

Предупреждение: не пытайтесь повторить их тренировку дома. Даже с учётом открытых деталей, стоимость инфраструктуры исчисляется миллионами долларов. Но вы можете использовать их идеи для оптимизации своих пайплайнов.

Что дальше?

Такая открытость - не доброта душевная. Это стратегический ход. DeepSeek борется за умы разработчиков, и подробный технический отчёт - лучшее оружие в этой войне. Ожидайте, что другие компании (особенно китайские) последуют их примеру.

Мой прогноз: в течение месяца появятся десятки форков и модификаций архитектуры DeepSeek-R1. Сообщество возьмёт их наработки и попытается адаптировать для меньших моделей. И кто знает, может быть, следующая сенсационная модель будет построена на этих принципах.

Совет для исследователей: прочитайте раздел про оптимизацию памяти. Даже если вы не тренируете гигантские модели, эти техники могут сократить ваши счета за облако на 30-40%. Особенно если вы работаете с бюджетными CPU-серверами.

И последнее: 86 страниц - это много. Но каждая страница стоит того. Это не сухой академический текст. Это рассказ о том, как строят будущее. Со всеми ошибками, находками и сомнениями. Редкая честность в эпоху маркетинговых презентаций.