OpenAI запустила GPT-5.1-Codex-Max для инженеров

OpenAI представила GPT-5.1-Codex-Max, новую модель для программирования, которая способна обрабатывать большой объём информации и решать инженерные задачи, выполнение которых занимает часы.

GPT-5.1-Codex-Max теперь становится стандартной в интерфейсах Codex, заменяя предыдущее поколение.

По данным OpenAI, в тесте SWE-Bench Verified эта модель набирает 77,9%, опережая аналоги от Anthropic и Google Gemini 3. На внутреннем тесте “SWE-Lancer IC SWE” результат вырос с 66,3% до 79,9%.

OpenAI отмечает, что новая модель использует на 30% меньше “thinking tokens” по сравнению с предыдущей, сохраняя качество, а также работает на 27–42% быстрее на реальных задачах. Для задач без ограничений по времени появился режим Extra High reasoning — он выделяет ещё больше ресурсов на размышления.

GPT-5.1-Codex-Max первой из Codex обучена специально для работы в среде Windows, чтобы лучше справляться с задачами в командной строке. Как утверждает компания, 95% инженеров OpenAI каждый неделю используют Codex, а количество pull request выросло на 70% после внедрения инструмента.

Модель уже доступна для пользователей ChatGPT Plus, Pro, Team, Edu и Enterprise. В ближайшее время появится и API. GPT-5.1-Codex-Max полностью заменяет предыдущую версию, которая была доступна всего несколько дней и стоила $1,25 за миллион входных токенов и $10 за миллион исходящих токенов. Стоимость новой версии пока неизвестна.

Для ChatGPT Plus действуют лимиты: 45–225 локальных сообщений и 10–60 облачных задач за пять часов. Для пользователей Pro — 300–1500 локальных сообщений и 50–400 облачных задач за тот же период.

OpenAI утверждает, что модель способна работать над одной задачей более 24 часов, выполняя, например, исправление ошибок или оптимизацию кода. Детали этих задач компания не раскрыла, но сопоставила результат с заявлениями Anthropic о время работы Sonnet 4.5.

Для длительных сессий применяется метод compaction: когда контекст переполнен, модель сжимает историю — оставляет главное и убирает лишнее, что позволяет сохранять ключевые шаги на протяжении миллионов токенов. Это первая модель Codex, обученная так работать сразу с несколькими окнами контекста.

С точки зрения безопасности, OpenAI пишет, что GPT-5.1-Codex-Max — самая способная кибербезопасностная модель компании на данный момент, хотя она ещё не достигла внутреннего порога “High Capability”. Компания продолжит выпускать инструменты поддержки, например, Aardvark, но разработчикам рекомендуют перепроверять результаты работы агента, так как модель не заменяет рецензию человека.

В OpenAI подчеркивают: “Проверка работы агента становится всё важнее, так как Codex выполняет более длинные задачи и ошибки в этих системах всё ещё встречаются.” Чем больше кода пишет модель, тем сложнее его анализировать и отлаживать впоследствии, что может снизить итоговую эффективность. В помощь Codex формирует терминальные логи — они содержат вызовы инструментов и тесты, но Codex только дополнительный рецензент, а не замена человеку.

Источник

Оцените статью
Gimal-Ai