Автономный AI-исследователь OpenAI к 2028: технологии и последствия | AiManual
AiManual Logo Ai / Manual.
20 Мар 2026 Новости

OpenAI обещает автономного AI-исследователя к 2028. Это конец науки или её новая эра?

Разбираем амбициозный план OpenAI по созданию AI-учёного к 2028 году. Reasoning-модели, агенты и интерпретируемость на 20.03.2026.

Сэм Альтман больше не говорит о чат-ботах. В своих последних выступлениях в марте 2026 года он говорит о «северном пути» — создании автономного искусственного интеллекта, который сам будет делать научные открытия. Сроки оглашены: к сентябрю этого года система должна научиться свободно ориентироваться в «интернете» (читай: добывать и анализировать данные), а к 2028 — стать полноценным исследователем.

Это звучит как пресс-релиз из 2035 года, но это их текущая дорожная карта. И она гораздо конкретнее, чем кажется.

Почему именно сейчас? Потому что агенты 2025 года провалились

Заявление OpenAI — не случайный хайп. Это прямой ответ на фиаско, которое потерпели AI-агенты в прошлом году. Помните все эти демо, где нейросеть сама бронировала столики и вела переговоры? К зиме 2025 стало ясно: в контролируемой среде они работают, а в диком мире — ломаются о первую же капчу или всплывающее окно.

💡
Как мы писали в материале «AI-агенты 2026: почему они провалились в 2025», главной проблемой стала хрупкость. Агентам не хватало здравого смысла и умения планировать. OpenAI теперь бьёт именно в эту точку.

Их ставка — не на один большой язык, а на симбиоз трёх технологий, каждая из которых сейчас в активной разработке.

Три кита будущего AI-учёного (и где они сейчас)

1. Reasoning-модели: мыслящие, а не предсказывающие

Все современные LLM — это, по сути, системы сверхсложного угадывания следующего токена. Для науки этого мало. Нужны модели, которые могут строить логические цепочки, проверять гипотезы и, что критично, признавать свою неправоту.

На 20.03.2026 публичных reasoning-моделей от OpenAI нет. Но в исследовательских блогах компании с конца 2025 года мелькают термины вроде «process reward models» (PRM) и «search-augmented reasoning». Это не про поиск в Google. Это про внутренний поиск в пространстве возможных решений. Модель будет не генерировать ответ, а искать его, как шахматист просчитывает ходы.

2. Мультиагентные системы: научная команда внутри одного black box

Один агент — это глупо. Несколько агентов, которые спорят, сотрудничают и проверяют друг друга — уже ближе к научному сообществу. Архитектура, где один агент генерирует гипотезу, второй ищет в литературе контраргументы, а третий проектирует эксперимент для проверки — это и есть цель.

OpenAI здесь не первопроходец. Meta и несколько стартапов уже показывали прототипы таких систем в 2025 году. Но у OpenAI есть козырь — глубокая интеграция с их собственными моделями, как, например, со специализированным GPT-5.3 Codex для программирования. Именно способность писать, запускать и исправлять код станет основой для «виртуальной лаборатории».

Спойлер: в open-source мире уже есть сильные игроки для построения таких систем. Если вам нужно экспериментировать уже сейчас, посмотрите на модели из нашего обзора «Топ-5 open-source моделей 2025 года для агентов». Они не дотягивают до будущего OpenAI, но дают почувствовать технологию.

3. Интерпретируемость: черный ящик, в который разрешили заглянуть

Ученый не примет открытие, сделанное системой, которая не может объяснить свой ход мыслей. Поэтому без прорыва в интерпретируемости ИИ (Explainable AI, XAI) весь проект — ничто. И здесь у OpenAI есть серьезный козырь — их наработки в области «механики трансформеров».

В начале 2026 года их исследователи опубликовали работу по отслеживанию, как конкретные факты хранятся и активируются внутри GPT-5.3. Это не полная расшифровка, но уже инструмент для аудита. К 2028 году они обещают дать ученым «лампочку» — возможность подсветить, на основе каких данных и цепочек рассуждений AI пришел к выводу.

Кто проиграет? (Подсказка: не только учёные)

Если это сработает, последствия будут каскадными.

  • Научные журналы и рецензирование. Если AI может проверить воспроизводимость исследования за час, вся система медленного peer-review рухнет. Публиковаться будут только те работы, которые прошли автоматическую валидацию.
  • Фундаментальные vs прикладные исследования. AI, скорее всего, сначала оптимизирует известные пути — найдет новый катализатор или белковую структуру. А не откроет новую физику. Деньги потекут туда, где есть быстрый результат. Это может убить чисто теоретические области.
  • Гонка гигантов станет войной. Проект — прямое объявление войны Google DeepMind и их направлению AlphaScience. Речь идет не просто о престиже, а о контроле над самой методологией открытий в будущем.
💡
Параллель: представьте, что самый мощный инструмент для научных открытий принадлежит одной коммерческой компании. Даже с самыми благими намерениями это создает риски, сравнимые с монополией на печатный станок в эпоху Возрождения.

Что мы имеем на 20 марта 2026 года?

До сентября с «интерном» осталось полгода. Публичных демо автономного исследователя нет. Но кусочки пазла уже на столе:

  1. GPT-5.3 Codex, который умеет автономно писать и исправлять код, — это прототип «лаборанта».
  2. Интеграция с поиском и вычислениями в реальном времени (через плагины и API) — зачаток «интерна».
  3. Активные вакансии в OpenAI для исследователей в области multi-agent systems и interpretability. Они не скрывают, что набирают команду именно под эту цель.

Проблема в том, что соединить эти части в стабильную, рассуждающую систему — задача на порядок сложнее. И судя по исходу талантов из отдела alignment, внутренние конфликты о том, куда и как двигаться, никуда не делись.

Прогноз, который вам не понравится

К 2028 году полноценного автономного исследователя не будет. Будет очень продвинутый ассистент, который сможет проводить рутинные литературные обзоры, ставить предсказуемые эксперименты в симуляциях и находить ошибки в коде исследований.

Но настоящие открытия — те, что ломают парадигмы, — требуют не только логики, но и безумной интуиции, упрямства и случайного озарения. Этого у алгоритмов пока нет. И вряд ли появится к 2028-му.

Так что готовьтесь не к замене ученых, а к появлению нового, сверхбыстрого и иногда невыносимо педантичного коллеги. Который будет проверять каждую вашу цифру и требовать исходные данные. Возможно, это и есть главная революция.

Подписаться на канал