Февраль 2026: GPT-5.3, Claude Opus 4.6, скандалы и ИИ в войне | AiManual
AiManual Logo Ai / Manual.
04 Мар 2026 Новости

Главные события февраля в мире ИИ: релизы GPT-5.3, Claude Opus 4.6, скандалы и военное применение

Обзор главных событий февраля 2026 в ИИ: новые релизы от OpenAI, Anthropic, Google, скандал с военным применением Claude и конфликты в индустрии.

Февраль 2026: ИИ-индустрия взорвалась (в прямом и переносном смысле)

Если вы думали, что после релиза GPT-5.2 в декабре наступит затишье, то февраль 2026 года вас разочаровал. Или обрадовал. Смотря как относитесь к драме, скандалам и этическим дилеммам, которые теперь идут в комплекте с каждым обновлением модели.

За 28 дней мир увидел три крупных релиза, одну громкую отставку, утечку документов Пентагона и очередной виток холивара open-source против закрытых моделей. И это только верхушка айсберга.

Три короля: GPT-5.3, Claude Opus 4.6 и Gemini 3.1

OpenAI выкатила GPT-5.3 15 февраля. Ключевая фишка - встроенная самоотладка кода. Модель теперь не только пишет код, но и исправляет свои же ошибки, запуская внутренние циклы проверки. Звучит как начало восстания машин, но на практике это просто экономит время разработчиков. (Хотя, кто знает...)

Anthropic ответила Claude Opus 4.6 18 февраля. Улучшенная многозадачность, поддержка контекста в 200K токенов и что-то под названием "этический аудит в реальном времени". Последнее - прямое следствие скандала с Пентагоном, о котором ниже.

Google не осталась в стороне и выпустила Gemini 3.1 22 февраля. Акцент на мультимодальность: модель теперь одинаково хорошо обрабатывает текст, видео и аудио в реальном времени. И да, она все еще пытается догнать GPT по популярности.

Модель Дата релиза Ключевая новая функция Контекст
GPT-5.3 15.02.2026 Самоотладка кода (Codex) 128K токенов
Claude Opus 4.6 18.02.2026 Этический аудит в реальном времени 200K токенов
Gemini 3.1 22.02.2026 Улучшенная мультимодальность (видео/аудио) 100K токенов
💡
Все три основные модели - GPT-5.3, Claude Opus 4.6 и Gemini 3.1 - получили значительные улучшения безопасности в февральских обновлениях. Это прямое следствие растущего регуляторного давления и публичных скандалов.

Для тестирования новых возможностей GPT-5.3 Codex, например, можно использовать платформу AI Test Pro (партнерская ссылка). Там есть специализированные бенчмарки для самоотладки.

OpenAI: внутренняя война выходит наружу

Пока все восхищались GPT-5.3, внутри компании разгорался конфликт между Сэмом Альтманом и Дипик Амодеи. Причина - военное применение ИИ. Амодеи, известная своими консервативными взглядами на безопасность, выступала против любого сотрудничества с Пентагоном. Альтман настаивал на необходимости "ответственного партнерства".

Утечка переписки (да, снова утечки) показала, что дискуссия перешла в открытую конфронтацию. Итог: Амодеи покинула совет директоров 25 февраля. Что это значит для будущего OpenAI? Вероятно, больше контрактов с правительством и меньше внутренних препятствий. Или, как говорят пессимисты, первый шаг к созданию Skynet с одобрения Конгресса.

Claude в Пентагоне: этика против безопасности

18 февраля, в день релиза Claude Opus 4.6, произошла утечка переписки между Anthropic и Пентагоном. Обсуждалась интеграция Claude в системы киберзащиты с "специальными модификациями" для обхода этических ограничений в сценариях уровня DEFCON 2. Anthropic быстро отреагировали, но пятно на репутации осталось.

Как мы писали в нейро-дайджесте, это не первая история с военным применением ИИ. Но теперь речь идет о прямой модификации модели для задач активной обороны. DARPA, кстати, уже вовсю тестирует автономные системы на основе ИИ.

Если хотите углубиться в вопросы безопасности, читайте наш разбор DystopiaBench, где мы анализируем уязвимости закрытых моделей. А чтобы понять контекст этических дилемм, курс от Ethics AI Academy (партнерская ссылка) раскладывает все по полочкам.

Февральский скандал с Anthropic привел к немедленному обновлению модели до версии 4.6.1, где "этический аудит" стал неотключаемым при работе с правительственными API. Хакеры уже ищут способы обхода.

Китайский фронт: GLM-5 против Qwen 3.5 - тихая война

Пока западные гиганты скандалят, китайские разработчики тихо (или не очень) совершенствуют open-source модели. В феврале вышли обновления GLM-5 и Qwen 3.5. По данным нашего сравнительного теста, GLM-5 выигрывает в агентных задачах, а Qwen 3.5 - в raw мощности.

Интересно, что обе модели уже получили патчи безопасности после прошлогодних уязвимостей. Видимо, уроки из скандала с Claude пошли впрок. Кстати, в open-source сообществе февраль запомнится релизом IQuest-Coder-V1 40B - модели, которая обгоняет GPT-5.1 в программировании и при этом бесплатна.

Что будет в марте? Прогноз от инсайдеров

Исходя из февральских событий, март готовит нам:

  • Новый раунд утечек про военные проекты. Возможно, на этот раз о Gemini. Слухи уже ходят.
  • Ответ от Meta: ждем релиз Llama 4, который, по слухам, будет сосредоточен на безопасности. Или на ее имитации.
  • Рост регуляторного давления. ЕС уже готовит новые директивы по военному ИИ, а в США сенат планирует слушания.
  • Первый серьезный инцидент с автономным ИИ-вымогателем. Мы уже видели намеки в статье про Claude 3.7 Sonnet.

Совет: не следите за драмой, следите за технологиями. Потому что именно они, а не скандалы, меняют мир. (Хотя драма тоже интересна.) А если хотите оставаться в курсе без истерик - читайте наш еженедельный дайджест. Там только факты, без паники.

Подписаться на канал