OpenAI на AWS Bedrock: GPT-5.3, Codex и агенты для бизнеса | AiManual
AiManual Logo Ai / Manual.
28 Апр 2026 Новости

OpenAI на AWS Bedrock: новые модели GPT, Codex и сервис агентов — что это значит для бизнеса

Разбираем сделку Amazon и OpenAI на $50 млрд: какие модели GPT и Codex появились на Bedrock, как работает сервис агентов и что это меняет для выбора облачного п

Почему Microsoft больше не эксклюзивный дом OpenAI

28 апреля 2026 года. Если вы думали, что OpenAI навсегда прописалась в Azure, — у нас для вас новости. Сделка Amazon и OpenAI на $50 миллиардов не просто слух, а реальность, которая перекроила карту облачного AI. Microsoft лишилась эксклюзивного доступа к моделям GPT. Теперь GPT-5.3, Codex и свежий сервис агентов доступны на AWS Bedrock. И это не про «еще один API». Это про то, что корпоративные клиенты могут выбирать.

Я помню, как год назад все спорили: «Azure — единственный путь для OpenAI». Но рынок не терпит монополий. AWS, со своей инфраструктурой и тысячами enterprise-клиентов, просто не могла остаться в стороне. Теперь Bedrock — это не просто платформа для Claude и Nova. Это полноценный хаб, где соседствуют модели от Anthropic, Amazon, Cohere, Meta — и теперь OpenAI.

Что именно привезла OpenAI на Bedrock?

Давайте без воды. По состоянию на 28 апреля 2026 года на Bedrock доступны три ключевых семейства моделей от OpenAI:

  • GPT-5.3 Turbo и GPT-5.3 Ultra — флагманские LLM с контекстом до 1 млн токенов. Именно эти модели сейчас используются в ChatGPT Enterprise. Они пришли на смену GPT-4 и GPT-4o. Отличительная черта — улучшенное следование инструкциям и способность к длинным рассуждениям. На Bedrock они доступны с поддержкой Streaming и Guardrails.
  • GPT-5.3 Codex — специализированная модель для написания и рефакторинга кода. В отличие от обычного GPT, Codex обучен на огромном корпусе репозиториев и умеет работать с агентными фреймворками. В Bedrock он интегрирован как invokeModel с возможностью вызывать инструменты (tool use).
  • OpenAI Agents Service — платформа для создания и развертывания AI-агентов. Это не просто модель, а полноценный сервис: агент может выполнять многошаговые задачи, обращаться к внешним API, сохранять состояние. На Bedrock он работает через новый Bedrock Managed Agents, о котором мы писали ранее.

Кстати, о конкуренции. Anthropic тоже не дремлет. В недавнем обзоре мы сравнивали Opus 4.6, GPT-5.3-Codex и Gemini 3 Deep Think. Теперь этот список дополнился еще и Google Cloud с LangSmith, но об этом в другой раз.

Чтобы работать со всеми этими моделями из одного места, многие используют API-шлюзы. Например, AITunnel предоставляет единый доступ к GPT-5.3, Claude 4.5 и другим моделям без необходимости держать несколько ключей. Удобно когда стек разнородный.

Сервис агентов OpenAI: конкуренция с Amazon и Anthropic

Amazon уже запустил Bedrock Managed Agents и Agent Registry — мы подробно разбирали эту архитектуру в статье про автоматизацию публикации контента. Теперь OpenAI добавляет свои агенты, которые умеют использовать Codex для написания кода на лету.

Представьте: вы описываете задачу «напиши парсер для PDF и сохрани результаты в S3». Агент сам пишет код на Python, запускает его в изолированной среде (Bedrock Execution Role), проверяет результат. Если ошибка — исправляет. Без человека.

Это меняет подход к автоматизации. Раньше мы говорили про RAG и пайплайны. Теперь — про агентов, которые сами решают, какие инструменты использовать. AWS даже выпустила гайд по гибридному RAG с Bedrock и OpenSearch, но агенты OpenAI идут дальше: они могут дергать API, базы данных, серверы. И все это в рамках одного вызова invokeAgent.

Что это значит для бизнеса?

Первое: исчезает привязка к одному облаку. Если вы сидели на AWS, но хотели GPT — раньше приходилось тянуть VPN или платить за трансфер. Теперь все внутри VPC. Bedrock обещает latency в пределах пары миллисекунд для моделей OpenAI.

Второе: конкуренция провайдеров снижает цены. Уже сейчас AWS заявляет, что GPT-5.3 Turbo на Bedrock на 15% дешевле, чем напрямую у OpenAI, если использовать Reserved Throughput. Правда, минимальная покупка — на месяц, но для масштабных проектов это выгодно.

Третье: появляется новая опция для мультимодальных решений. Вспомните недавний запуск региона в Окленде с географической маршрутизацией. Теперь Bedrock с моделями OpenAI может обрабатывать запросы локально для клиентов в Австралии и Новой Зеландии, минуя задержки до США.

Но есть и обратная сторона. Статья «OpenAI ставит на корпоративный рынок: бывший оппонент возвращается, чтобы победить Anthropic» справедливо отмечает, что OpenAI теперь конкурирует не только с Azure, но и с партнерами по платформе Bedrock. Anthropic, скорее всего, будет давать скидки, чтобы удержать долю. Выиграют клиенты.

Технические детали: как это работает на Bedrock

Модели OpenAI доступны через стандартный эндпоинт bedrock-runtime. Это значит, что если вы раньше вызывали Claude 4.5, то для GPT-5.3 достаточно поменять modelId на 'openai.gpt-5-3-turbo'. Тот же самый синтаксис, те же IAM permissions, те же Governance.

Кстати, о безопасности. AWS добавила поддержку Guardrails for Amazon Bedrock для моделей OpenAI. Можно фильтровать контент, проверять на конфиденциальность, ограничивать темы. Это особенно важно для финансового сектора, где регуляторы требуют объяснимости.

Агентный сервис работает через новый Bedrock Agent Runtime. Мы уже рассматривали подобное в статье «Архитектура Agentic AI на Amazon Bedrock», но теперь архитектура пополнилась агентом от OpenAI. Он умеет вызывать функции Lambda, обращаться к DynamoDB, отправлять email. По сути, это готовая замена для RPA-решений.

Кто выигрывает в этой гонке?

Крупный enterprise, который использует multi-cloud. Теперь можно держать основную инфраструктуру на AWS, а AI-слой получать от OpenAI, не уходя в Azure. Microsoft, конечно, попытается ответить — ходят слухи о покупке Nuance и интеграции Copilot напрямую в Windows Server. Но пока Bedrock с OpenAI выглядит как killer combo.

Для стартапов, которые пишут своих агентов, открывается возможность использовать GPT-5.3 Codex в связке с managed-агентами без необходимости разворачивать собственный оркестратор. Скорость вывода таких моделей на Bedrock, по тестам, не уступает Azure — а иногда и превосходит за счет оптимизированного инференса AWS Inferentia.

Кстати, если вы пишете агентов на Go для скорости, мы недавно публиковали статью с бенчмарками. С моделями OpenAI на Bedrock это тоже работает.

Неидеальная картина: что пока не так

OpenAI на Bedrock — это не «все включено». Пока нет fine-tuning для GPT-5.3. Только базовая модель. Для дообучения придется идти напрямую в OpenAI API. Также нет поддержки Batch Inference (асинхронные батчи) — только real-time.

И, конечно, цена на Reserved Throughput кусается. Для небольших проектов выгоднее pay-as-you-go, но там лимиты по запросам. AWS обещает снять эти ограничения до конца Q2 2026.

Еще один нюанс: сервис агентов OpenAI пока в preview. Мы тестировали — работает стабильно, но иногда агент может уйти в бесконечный цикл. Разработчики советуют ставить таймауты и максимальное количество шагов.

Прогноз: что дальше?

Судя по темпам, к концу лета 2026 мы увидим полную интеграцию OpenAI в Bedrock: fine-tuning, batch, возможно, даже конкуренцию по цене с Claude 4.5. Амазон явно хочет сделать Bedrock универсальным маркетплейсом AI-моделей. Если так пойдет, то вопрос «какой облачный провайдер для AI?» сменится на «какую модель вы используете?». Выбор будет за бизнесом, а не за эксклюзивными контрактами.

Лично я ставлю на то, что Microsoft вынуждена будет снизить цены на Azure OpenAI или выпустить собственную AGI-модель. Но пока — наслаждаемся конкуренцией. Она идет на пользу всем.

Так что берите пробный период Bedrock и тестируйте. Рынок изменился.

Подписаться на канал