Каталог моделей
🧠 Мультимодальная💬 Текст💻 Код API

Claude Opus 4.7

AnthropicДата выхода: 16 апр 2026Контекст: 1M tokens Сайт

Самая мощная публично доступная модель Anthropic из семейства Claude 4.7. Превосходит Opus 4.6, GPT-5.4 и Gemini 3.1 Pro в ключевых бенчмарках. Специализируется на сложном кодинге, агентных задачах и долгих многошаговых сценариях. Умеет проверять собственный вывод перед отчётом, работает с памятью между сессиями и обрабатывает изображения в разрешении до 2576 пикселей. Новый уровень рассуждений xhigh даёт тонкий контроль между глубиной и скоростью

Тарифы

Claude Pro
$20/мес
  • доступ к Opus 4.7, расширенное мышление, уровни рассуждения включая xhigh, 1M контекст, Claude Code
Claude Max (5x)
$100/мес
  • всё из Pro, увеличенные лимиты в 5 раз, Cowork
Claude Max (20x)
$200/мес
  • всё из Pro, увеличенные лимиты в 20 раз, Cowork, приоритетный доступ
Claude Team
$30/мес
  • всё из Pro, админ-панель, Claude Code для каждого участника
Claude Enterprise
$INDIVIDUAL/мес
  • SSO, SCIM, аналитика, расширенные лимиты, выделенная поддержка

Плюсы и минусы

Плюсы

  • Превосходит Opus 4.6, GPT-5.4 и Gemini 3.1 Pro в бенчмарках
  • Самопроверка вывода перед финальным ответом
  • Улучшенная работа с памятью между сессиями
  • Разрешение изображений до 2576 пикселей (в 3+ раза больше прошлых моделей)
  • Новый уровень рассуждения xhigh между high и max
  • На 13% лучше решает сложные задачи кодинга (бенчмарк Hex)
  • Встроенные защитные механизмы против кибермисьюза
  • Низкая эффективность: low-effort Opus 4.7 ≈ medium-effort Opus 4.6

Минусы

  • Уступает закрытой модели Claude Mythos Preview
  • Новый токенизатор увеличивает расход входных токенов в 1,0–1,35 раза
  • На высоких уровнях усилий производит больше выходных токенов
  • Уменьшенные кибервозможности для массового рынка
  • Может потребоваться переработка промптов от Opus 4.6
  • Высокая цена API ($5/$25 за 1M токенов)
  • Избыточна для простых повседневных задач

Подробный обзор

Claude Opus 4.7 вышел 16 апреля 2026 года как новый флагман линейки Anthropic. Релиз состоялся ровно через два месяца после Opus 4.6 и закрепил предсказуемую каденцию обновлений флагманских моделей. В этом обзоре разберём все бенчмарки, технические изменения и сценарии применения.

Краткая справка

ПараметрЗначение
РазработчикAnthropic
Дата выхода16 апреля 2026
Идентификатор APIclaude-opus-4-7
Контекстное окно1M токенов
Максимальный вывод128K токенов
Макс. разрешение изображения2576px по длинной стороне
Уровни рассужденияlow, medium, high, xhigh, max
Цена API (input)$5 за 1M токенов
Цена API (output)$25 за 1M токенов
Экономия с prompt cachingдо 90%
Экономия с batch processingдо 50%

Главные изменения относительно Opus 4.6

Opus 4.7 не революция, а мощная итерация. Anthropic сделала упор на пять направлений:

Кодинг. Заметный рост на всех профильных бенчмарках, особенно на сложных задачах, которые раньше требовали постоянного супервайзинга.

Самопроверка. Впервые модель Claude умеет верифицировать собственный вывод перед отчётом пользователю, создавая внутренние тесты для подтверждения корректности.

Зрение. Обработка изображений в разрешении до 2576 пикселей, что более чем в три раза больше прошлых моделей.

Агентная автономия. Лучшая работа в длинных многошаговых пайплайнах с меньшим количеством ошибок инструментов.

Уровень xhigh. Новый уровень рассуждения между high и max для тонкого контроля над балансом глубины и скорости.

Бенчмарки: Opus 4.7 против конкурентов

Агентное кодирование

БенчмаркOpus 4.7Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-bench Pro64,3%53,4%57,7%54,2%
SWE-bench Verified87,6%80,8%80,6%
Terminal-Bench 2.069,4%65,4%75,1%
CursorBench70,0%58,0%

Opus 4.7 уверенно лидирует на SWE-bench Pro — главном индустриальном бенчмарке для реальных багов в open source репозиториях. Прирост относительно 4.6 составил почти 11 процентных пунктов, а GPT-5.4 модель обгоняет более чем на 6 пунктов. На CursorBench, измеряющем работу в IDE, рост ещё заметнее — с 58% до 70%.

Единственное заметное отставание — Terminal-Bench 2.0, где GPT-5.4 удерживает лидерство по собственным данным OpenAI.

Знания и рассуждения

БенчмаркOpus 4.7Opus 4.6GPT-5.4 ProGemini 3.1 Pro
GPQA Diamond94,2%94,4%94,3%
ARC-AGI-277,1%ниже
GDPval-AA (Elo)175316741314
BrowseComp79,3%83,7%89,3%

На GPQA Diamond три флагмана практически равны — разброс в пределах статистической погрешности. Это значит, что бенчмарк насыщен и больше не различает модели, а конкуренция сместилась в прикладные задачи.

На ARC-AGI-2 (абстрактное рассуждение и поиск новых паттернов) Opus 4.7 показал 77,1% и обошёл Gemini 3 Pro. На GDPval-AA (экономически значимая работа в финансах и юриспруденции) Anthropic вырвалась вперёд с серьёзным отрывом.

Слабое место — BrowseComp (агентный поиск): модель просела относительно 4.6, а GPT-5.4 Pro держит уверенное лидерство на 89,3%.

Отраслевые и прикладные бенчмарки

БенчмаркOpus 4.7Opus 4.6
BigLaw Bench (юриспруденция, high effort)90,9%
arXiv Reasoning (с инструментами)91,0%84,7%
Rakuten-SWE-Bench3x задачбазовая
MCP-Atlas (tool use)лидер
Finance Agent v1.1лидер
OfficeQA Pro (ошибки)−21%базовая

На BigLaw Bench от Harvey Opus 4.7 набрала 90,9% с правильным разграничением тонких юридических формулировок, что ранее было проблемой для фронтирных моделей. На внутреннем бенчмарке Rakuten модель решает в три раза больше задач уровня production, чем Opus 4.6.

Компьютерное зрение и computer use

МетрикаOpus 4.7Прошлые модели
Визуальная точность (computer use)98,5%54,5%
Макс. разрешение изображения2576px~800px
Ошибки document reasoning−21%базовая

Почти двукратный рост визуальной точности для computer use делает Opus 4.7 реально применимой для автоматизации работы с интерфейсами. Утроенное разрешение позволяет разбирать плотные скриншоты, технические схемы, UML-диаграммы и планы без потери деталей.

Ключевые технические возможности

Уровень рассуждения xhigh

До Opus 4.7 API предлагал уровни low, medium, high и max. Новый xhigh расположен между high и max и решает важную практическую задачу:

УровеньНазначение
lowБыстрые простые ответы
mediumСтандартные задачи
highСложные задачи, хороший баланс
xhighТрудные задачи с контролем бюджета
maxМаксимальная глубина без ограничений

Max выдаёт лучшие результаты (подбирается к 75% на кодинге), но дорог и медлителен. High иногда не хватает на реально трудных задачах. Xhigh закрывает эту нишу. Anthropic рекомендует стартовать с high или xhigh для кодинга и агентных сценариев.

Самопроверка вывода

Opus 4.7 создаёт внутренние тесты, чтобы убедиться в корректности ответа перед тем, как его отдать. Это первая модель Claude, которая прошла так называемые implicit-need tests — задачи, где нужные инструменты и действия не заданы явно, а должны быть выведены из контекста.

На внутренних бенчмарках Anthropic это даёт:

  • плюс 14% на сложных многошаговых сценариях относительно Opus 4.6
  • на треть меньше ошибок при работе с инструментами
  • меньший расход токенов на ту же задачу

Файловая память между сессиями

Модель лучше работает с памятью на основе файловой системы: сохраняет заметки между сессиями и использует их для подхвата новых задач. Это сокращает объём контекста, который нужно передавать заново.

Task budgets (публичная бета)

Новая система позволяет задавать жёсткий лимит токенов на рассуждение для автономных агентов. Это защищает от ситуаций, когда долгоиграющая отладочная сессия съедает неожиданный бюджет.

Новый токенизатор

Tokenizer обновлён и лучше обрабатывает текст, но один и тот же ввод теперь кодируется в 1,0–1,35 раза большее число токенов в зависимости от типа контента. При миграции с 4.6 это нужно учитывать при расчёте расходов.

Экосистемные изменения: Claude Code

Вместе с моделью обновился и Claude Code:

/ultrareview — новая команда для глубокой проверки кода. Это не обычный lint, а симуляция работы senior-ревьюера: анализирует архитектуру, безопасность, производительность и поддерживаемость. Pro и Max пользователи получают три бесплатных ultrareview.

Auto mode для Max — режим, в котором Claude принимает автономные решения без постоянных разрешений, теперь доступен и подписчикам Max (раньше только Teams/Enterprise/API).

Сдвиг дефолтного effort level — в Claude Code сменилось значение по умолчанию, появилась опция --effort xhigh.

Стоимость: сравнение флагманов

МодельInput ($/1M)Output ($/1M)
Claude Opus 4.75,0025,00
Claude Opus 4.65,0025,00
GPT-5.4 Pro
Gemini 3.1 Pro2,0012,00

Цена Opus 4.7 осталась такой же, как у Opus 4.6, что фактически означает прирост качества при тех же затратах. Gemini 3.1 Pro стоит примерно вдвое дешевле, но Opus 4.7 оправдывает премию для задач, где важны кодинг и агентное рассуждение.

Для US-only инференса в Anthropic действует надбавка x1,1 на input и output.

Безопасность и Project Glasswing

Opus 4.7 стал первой моделью, на которой Anthropic обкатывает новые защитные механизмы в рамках Project Glasswing. Ключевые решения:

  • во время обучения кибервозможности модели целенаправленно снижались относительно Claude Mythos Preview
  • в релиз встроены автоматические фильтры, детектирующие запросы с высоким риском киберзлоупотреблений
  • для ИБ-специалистов с легитимными задачами (исследование уязвимостей, пентесты, red team) открыта Cyber Verification Program

По результатам внутреннего аудита безопасности:

МетрикаOpus 4.7 против 4.6
Честностьлучше
Устойчивость к prompt injectionлучше
Склонность к обмануна том же уровне
Подхалимствона том же уровне
Содействие misuseна том же уровне
Избыточные советы по контролируемым веществамчуть хуже

Alignment-оценка звучит так: модель «в целом хорошо выровнена и заслуживает доверия, хотя её поведение не идеально». Для сравнения, Mythos Preview остаётся самой хорошо выровненной моделью Anthropic по внутренним оценкам.

Отзывы партнёров

Hex (платформа аналитики): «Claude Opus 4.7 — сильнейшая модель, которую мы тестировали. Она корректно сообщает о недостающих данных вместо правдоподобных, но неверных предположений».

Cursor (AI IDE): рост CursorBench с 58% до 70% — «ощутимый скачок возможностей для автономного кодинга».

Warp (терминал): «Модель справилась с задачами Terminal Bench, которые проваливали прошлые версии Claude, и починила сложный баг concurrency, с которым Opus 4.6 не справилась».

CodeRabbit (ревью кода): «Recall вырос более чем на 10%, при этом precision не упал. Самые сложные баги в больших PR теперь находятся».

Harvey (юридический AI): «90,9% на BigLaw Bench и заметно более умное обращение с неоднозначными задачами редактирования документов».

Rakuten (e-commerce): «В три раза больше production-задач решено на Rakuten-SWE-Bench с двузначным ростом по качеству кода и тестов».

Hebbia (корпоративный агент): «Двузначный рост точности вызовов инструментов и планирования в базовых агентах-оркестраторах».

Миграция с Opus 4.6: что учесть

  1. Промпты. Opus 4.7 следует инструкциям более буквально. Промпты, настроенные под 4.6, могут давать неожиданный результат и требуют перетестирования.
  2. Расход токенов. Новый токенизатор увеличивает input на 1,0–1,35 раза, а более глубокое рассуждение повышает output. Закладывайте рост бюджета.
  3. Effort level. Для кодинга и агентных задач рекомендуется стартовать с high или xhigh, а не с медианного medium.
  4. Инструменты. Модель лучше переживает сбои инструментов и продолжает работу там, где 4.6 останавливалась. Можно пересмотреть защитные обёртки.

Доступность

Opus 4.7 доступна с 16 апреля 2026:

  • в Claude (подписки Pro, Max, Team, Enterprise)
  • в Claude API (claude-opus-4-7)
  • в Amazon Bedrock (US East Virginia, Asia Pacific Tokyo, Europe Ireland, Europe Stockholm)
  • в Google Cloud Vertex AI
  • в Microsoft Foundry
  • в GitHub Copilot (Pro+, Business, Enterprise) с промоценой x7,5 до 30 апреля

Вердикт

Claude Opus 4.7 — не просто апдейт, а осмысленное переосмысление того, что публично доступная фронтирная модель должна уметь делать. Если Opus 4.6 был про надёжность в корпоративных сценариях, то 4.7 смещает фокус на автономность: модель теперь способна планировать, проверять себя и доводить до конца долгие задачи с минимальным вмешательством человека.

Для команд, которые строят серьёзные агентные системы, пишут сложный код или занимаются юридической и финансовой аналитикой, это новая точка отсчёта. Для простых повседневных сценариев по-прежнему разумнее Sonnet 4.6: дешевле, быстрее, хватит с запасом. А Claude Mythos Preview пока остаётся недоступным эталоном, на который Opus 4.7 равняется и до которого постепенно подтягивается.

Похожие модели

Текст

GigaChat 2.0

Сбер

Флагманская российская языковая модель от Сбера. Контекст 128K токенов, долговременная память, встроенный интерпретатор кода и автономный веб-поиск. Лучшее понимание русского языка среди всех моделей.

Бесплатно
Текст

Qwen 3

Alibaba Cloud

Серия LLM от Alibaba с гибридным рассуждением. 8 моделей: 6 плотных (0.6B-32B) и 2 MoE (30B/3B, 235B/22B). 36 трлн токенов обучения, 119 языков. Думающий режим для сложных задач, быстрый для простых. Apache 2.0.

$0.05/1M input
Мультимодальная

Claude Sonnet 4.6

Anthropic

Оптимальная модель Anthropic по соотношению цены и качества из семейства Claude 4.6. Приближается к Opus по интеллекту при значительно меньшей стоимости. Отлично справляется с кодингом, анализом документов, агентными задачами и computer use. Контекст 1M токенов, до 64K токенов на выходе. Идеальна для повседневных рабочих задач, где нужен баланс между скоростью, качеством и ценой.

$20/мес
Мультимодальная

GPT-5.4

OpenAI

Флагманская модель OpenAI с контекстным окном в 1 млн токенов. Лидирует в рейтингах по комплексным задачам: рассуждения, анализ, генерация кода и работа с длинными документами. Доступна в версиях Standard, Thinking и Pro. Поддерживает текст, изображения и код. На 33% меньше галлюцинаций по сравнению с GPT-5.2

Бесплатно
Мультимодальная

Muse Spark

Meta

Первая закрытая модель Meta от Superintelligence Labs. Мультимодальная модель рассуждений: текст, изображения, речь. Уникальный Contemplating Mode — мульти-агентная параллельная система. Три режима: Instant, Thinking, Contemplating. Бесплатно через meta.ai.

Бесплатно

Используете Claude Opus 4.7?

Поделитесь опытом в нашем сообществе

Написать пост