Llama 4 Maverick
Флагманская MoE-модель Meta со 128 экспертами. 400B параметров, 17B активных. Контекст 1M токенов. Превосходит GPT-4o и Gemini 2.0 Flash. Сопоставима с DeepSeek v3 при вдвое меньшем числе активных параметров.
Тарифы
- $0.60/1M output
- 128 экспертов
- 1M контекст
- Открытые веса
Плюсы и минусы
Плюсы
- Превосходит GPT-4o и Gemini 2.0 Flash
- 128 экспертов при 17B активных
- Контекст 1M токенов
- Помещается на одном H100
Минусы
- 400B параметров — высокие требования к памяти
- Лицензия не OSI — ограничение 700M MAU
- Данные с cutoff август 2024
- Дороже Scout
Подробный обзор
Что такое Llama 4 Maverick
Llama 4 Maverick — флагманская MoE-модель Meta со 128 экспертами. 400B общих параметров, 17B активных на токен. Контекст 1 миллион токенов. Превосходит GPT-4o и Gemini 2.0 Flash по широкому набору бенчмарков. ELO 1417 на LMSYS Arena.
Ключевые возможности
MMLU Pro 80.5%, сопоставим с DeepSeek v3 при вдвое меньшем числе активных параметров. 128 экспертов дают доступ к огромной базе знаний при маршрутизации. Нативная мультимодальность: анализ текста, изображений и видео. Помещается на одном узле H100.
Сравнение с конкурентами
Maverick занимает нишу между открытыми и проприетарными моделями. Дешевле Claude Sonnet 4.6 ($0.60 vs $3/1M output) при сопоставимом качестве на общих задачах. Уступает Claude Opus 4.6 и GPT-5.4 на сложных рассуждениях, но значительно дешевле.
Как начать
API: OpenRouter ($0.15/$0.60 per 1M), Together AI, Google Vertex AI. Self-hosted: HuggingFace, Ollama. Для полного контекста 1M рекомендуется H100 с 80GB VRAM.