Сэм Альтман больше не говорит о чат-ботах. В своих последних выступлениях в марте 2026 года он говорит о «северном пути» — создании автономного искусственного интеллекта, который сам будет делать научные открытия. Сроки оглашены: к сентябрю этого года система должна научиться свободно ориентироваться в «интернете» (читай: добывать и анализировать данные), а к 2028 — стать полноценным исследователем.
Это звучит как пресс-релиз из 2035 года, но это их текущая дорожная карта. И она гораздо конкретнее, чем кажется.
Почему именно сейчас? Потому что агенты 2025 года провалились
Заявление OpenAI — не случайный хайп. Это прямой ответ на фиаско, которое потерпели AI-агенты в прошлом году. Помните все эти демо, где нейросеть сама бронировала столики и вела переговоры? К зиме 2025 стало ясно: в контролируемой среде они работают, а в диком мире — ломаются о первую же капчу или всплывающее окно.
Их ставка — не на один большой язык, а на симбиоз трёх технологий, каждая из которых сейчас в активной разработке.
Три кита будущего AI-учёного (и где они сейчас)
1. Reasoning-модели: мыслящие, а не предсказывающие
Все современные LLM — это, по сути, системы сверхсложного угадывания следующего токена. Для науки этого мало. Нужны модели, которые могут строить логические цепочки, проверять гипотезы и, что критично, признавать свою неправоту.
На 20.03.2026 публичных reasoning-моделей от OpenAI нет. Но в исследовательских блогах компании с конца 2025 года мелькают термины вроде «process reward models» (PRM) и «search-augmented reasoning». Это не про поиск в Google. Это про внутренний поиск в пространстве возможных решений. Модель будет не генерировать ответ, а искать его, как шахматист просчитывает ходы.
2. Мультиагентные системы: научная команда внутри одного black box
Один агент — это глупо. Несколько агентов, которые спорят, сотрудничают и проверяют друг друга — уже ближе к научному сообществу. Архитектура, где один агент генерирует гипотезу, второй ищет в литературе контраргументы, а третий проектирует эксперимент для проверки — это и есть цель.
OpenAI здесь не первопроходец. Meta и несколько стартапов уже показывали прототипы таких систем в 2025 году. Но у OpenAI есть козырь — глубокая интеграция с их собственными моделями, как, например, со специализированным GPT-5.3 Codex для программирования. Именно способность писать, запускать и исправлять код станет основой для «виртуальной лаборатории».
Спойлер: в open-source мире уже есть сильные игроки для построения таких систем. Если вам нужно экспериментировать уже сейчас, посмотрите на модели из нашего обзора «Топ-5 open-source моделей 2025 года для агентов». Они не дотягивают до будущего OpenAI, но дают почувствовать технологию.
3. Интерпретируемость: черный ящик, в который разрешили заглянуть
Ученый не примет открытие, сделанное системой, которая не может объяснить свой ход мыслей. Поэтому без прорыва в интерпретируемости ИИ (Explainable AI, XAI) весь проект — ничто. И здесь у OpenAI есть серьезный козырь — их наработки в области «механики трансформеров».
В начале 2026 года их исследователи опубликовали работу по отслеживанию, как конкретные факты хранятся и активируются внутри GPT-5.3. Это не полная расшифровка, но уже инструмент для аудита. К 2028 году они обещают дать ученым «лампочку» — возможность подсветить, на основе каких данных и цепочек рассуждений AI пришел к выводу.
Кто проиграет? (Подсказка: не только учёные)
Если это сработает, последствия будут каскадными.
- Научные журналы и рецензирование. Если AI может проверить воспроизводимость исследования за час, вся система медленного peer-review рухнет. Публиковаться будут только те работы, которые прошли автоматическую валидацию.
- Фундаментальные vs прикладные исследования. AI, скорее всего, сначала оптимизирует известные пути — найдет новый катализатор или белковую структуру. А не откроет новую физику. Деньги потекут туда, где есть быстрый результат. Это может убить чисто теоретические области.
- Гонка гигантов станет войной. Проект — прямое объявление войны Google DeepMind и их направлению AlphaScience. Речь идет не просто о престиже, а о контроле над самой методологией открытий в будущем.
Что мы имеем на 20 марта 2026 года?
До сентября с «интерном» осталось полгода. Публичных демо автономного исследователя нет. Но кусочки пазла уже на столе:
- GPT-5.3 Codex, который умеет автономно писать и исправлять код, — это прототип «лаборанта».
- Интеграция с поиском и вычислениями в реальном времени (через плагины и API) — зачаток «интерна».
- Активные вакансии в OpenAI для исследователей в области multi-agent systems и interpretability. Они не скрывают, что набирают команду именно под эту цель.
Проблема в том, что соединить эти части в стабильную, рассуждающую систему — задача на порядок сложнее. И судя по исходу талантов из отдела alignment, внутренние конфликты о том, куда и как двигаться, никуда не делись.
Прогноз, который вам не понравится
К 2028 году полноценного автономного исследователя не будет. Будет очень продвинутый ассистент, который сможет проводить рутинные литературные обзоры, ставить предсказуемые эксперименты в симуляциях и находить ошибки в коде исследований.
Но настоящие открытия — те, что ломают парадигмы, — требуют не только логики, но и безумной интуиции, упрямства и случайного озарения. Этого у алгоритмов пока нет. И вряд ли появится к 2028-му.
Так что готовьтесь не к замене ученых, а к появлению нового, сверхбыстрого и иногда невыносимо педантичного коллеги. Который будет проверять каждую вашу цифру и требовать исходные данные. Возможно, это и есть главная революция.