AI уплощает науку: больше статей, меньше открытий | Nature 2026 | AiManual
AiManual Logo Ai / Manual.
20 Янв 2026 Новости

AI превращает науку в фабрику статей: исследование Nature показало, что мы пишем больше, а открываем меньше

Новое исследование Nature на 40 млн статей показало: AI ускоряет публикации, но убивает оригинальность. Учёные выбирают карьеру вместо прорывов.

Наука стала быстрее. И скучнее

Откройте любой научный журнал в 2026 году. Статей стало в два раза больше, чем пять лет назад. Цитирования растут. Индекс Хирша у молодых учёных взлетает как ракета. Кажется, мы живём в золотом веке науки.

Но Джеймс Эванс из Чикагского университета смотрит на те же цифры и видит катастрофу. Его команда проанализировала 40 миллионов научных статей за последние 20 лет. Результаты, опубликованные в Nature на прошлой неделе, шокируют: AI не ускоряет открытия. Он их замедляет.

«Мы создали систему, которая поощряет учёных не рисковать. AI стал идеальным инструментом для карьерного роста, но худшим врагом научного прогресса», — говорит Эванс в интервью для Nature.

Как это работает? Очень просто

Возьмите современный LLM вроде GPT-5 или Claude 4. Скажите ему: «Напиши обзор литературы по квантовым точкам для солнечных батарей». Через 20 минут у вас готова основа для статьи. Ещё неделя на эксперименты (часто предсказанные тем же AI), месяц на правки — и вот вы уже автор публикации в приличном журнале.

Проблема не в том, что AI пишет за вас. Проблема в том, что он пишет слишком хорошо. И слишком предсказуемо.

💡
Исследование показывает: статьи, созданные с помощью AI, цитируют на 15% меньше «маргинальных» работ — тех самых, которые содержат неочевидные, но потенциально прорывные идеи. Вместо этого AI предлагает безопасные ссылки на популярные статьи. Наука становится эхом самой себя.

Карьера vs. Открытия

Представьте молодого постдока. Ему нужно 5 статей за 2 года, чтобы получить постоянную позицию. Или представьте профессора, который отчитывается перед грантодателем.

Что выберет рациональный учёный в 2026 году?

  • Потратить 3 года на рискованную идею, которая с вероятностью 90% провалится
  • Использовать AlphaFold 4 (последняя версия на январь 2026) для предсказания структуры ещё 100 белков и опубликовать 4 статьи за год

Ответ очевиден. И он убивает науку.

Парадокс AlphaFold

Возьмите AlphaFold. Казалось бы, идеальный пример того, как AI ускоряет открытия. И да, и нет.

После релиза AlphaFold 3 в 2024 году количество статей о структурах белков выросло на 300%. Но оригинальность этих статей упала на 40%. Учёные перестали думать о том, зачем предсказывать структуру. Они просто предсказывают. Потому что это быстро. Потому что это публикуется.

«Мы превратили науку в фабрику по производству предсказаний», — говорит один из рецензентов исследования, пожелавший остаться анонимным.

Показатель До массового AI (до 2022) С массовым AI (2023-2025) Изменение
Количество статей в год ~2.5 млн ~4.1 млн +64%
Индекс оригинальности 0.71 0.52 -27%
Цитирование маргинальных работ 18% 9% -50%
Время от идеи до публикации 14.2 мес 8.7 мес -39%

Детекторы не помогут. Это системная проблема

Вы думаете, детекторы AI-текста решат проблему? Забудьте.

Учёные уже научились обходить их. Они используют AI для генерации идей, дизайна экспериментов, анализа данных. Текст пишут сами. Но мышление — уже не их. Это мышление усреднённого AI, обученного на миллионах статей прошлого.

Как отмечается в другом нашем материале про LLM в науке, даже эксперты с трудом отличают AI-сгенерированные статьи от человеческих после 2024 года.

Что делать? Три непопулярных мнения

Эванс не просто критикует. Он предлагает решения. Жёсткие.

1 Ломайте систему оценок

Перестаньте считать статьи. Вместо этого оценивайте влияние одной работы за 10 лет. Да, это значит, что молодые учёные будут годами без публикаций. Зато те, кто рискнёт, смогут изменить мир.

2 Создайте AI для рискованных идей

Все современные модели обучены на успешных статьях. Нужна модель, обученная на провалах. На идеях, которые казались бредовыми, но привели к открытиям через 20 лет. Как те уравнения Навье-Стокса, которые математики искали два века.

3 Запретите AI в рецензировании

Да, это замедлит процесс. Но рецензенты-люди чаще рекомендуют к публикации рискованные работы. AI-рецензенты ищут соответствие шаблону. Они убивают нестандартное мышление на этапе peer review.

Будущее уже здесь. И оно плоское

Пока война за AI-таланты идёт между коммерческими компаниями, наука тихо умирает. Мы производим больше знаний, чем когда-либо. Но эти знания становятся всё более поверхностными.

Может быть, пора бросить академию и уйти в стартап? Там хотя бы честно: ты гонишься за прибылью, а не притворяешься, что ищешь истину.

Или может быть, пора создать ту самую чистую AI-модель для науки, о которой кричат учёные? Модель, которая не оптимизирована для публикаций, а оптимизирована для открытий.

Пока мы не решим эту проблему, нас ждёт будущее, где каждый учёный будет публиковать по 20 статей в год. И ни одна из них не изменит мир.

Наука станет быстрой, эффективной и совершенно бесполезной.