Jamba 1.5 Large
Гибридная языковая модель AI21 Labs на архитектуре SSM+Transformer (Mamba). 94 млрд параметров, контекстное окно 256K токенов при низком потреблении памяти.
Тарифы
- Бесплатный пробный уровень через AI21 Studio
- API: $2.0/1M input-токенов, $8.0/1M output-токенов
Плюсы и минусы
Плюсы
- Контекстное окно 256K токенов — одно из самых широких среди коммерческих моделей такого размера
- Гибридная SSM+Transformer архитектура обеспечивает линейное масштабирование по длине контекста вместо квадратичного
- Значительно меньшее потребление памяти при работе с длинными контекстами по сравнению с чистыми трансформерами
- Высокая скорость инференса на длинных документах благодаря эффективности SSM-слоёв
- Отличная производительность на задачах суммаризации длинных документов и RAG-пайплайнах
Минусы
- Закрытый исходный код — нет возможности fine-tuning без корпоративного договора
- Уступает GPT-4o и Claude 3.5 Sonnet на задачах сложного рассуждения и агентных сценариях
- Высокая стоимость output-токенов ($8/1M) по сравнению с конкурентами аналогичного класса
- Ограниченная экосистема интеграций по сравнению с продуктами OpenAI и Anthropic
Подробный обзор
Jamba 1.5 Large — флагманская языковая модель израильской компании AI21 Labs, выпущенная в августе 2024 года. Её главная особенность — революционная гибридная архитектура, объединяющая традиционные слои трансформера с блоками Mamba (State Space Model, SSM). Эта комбинация решает одну из фундаментальных проблем больших языковых моделей: квадратичный рост потребления памяти при увеличении длины контекста.
Благодаря SSM-компоненте Jamba 1.5 Large обрабатывает 256K токенов контекста при существенно меньшем объёме KV-кэша по сравнению с чистыми трансформерами той же мощности. На практике это означает, что модель может одновременно анализировать несколько сотен страниц документов, удерживая все детали в «памяти» без деградации качества на дальних фрагментах. Это особенно ценно для RAG-систем, юридического анализа и работы с большими кодовыми базами.
Модель содержит 94 миллиарда параметров и использует архитектуру MoE (Mixture of Experts), так что реально активируется меньшее число параметров при каждом токене. Это обеспечивает высокую скорость инференса при сохранении качества большой модели. По данным AI21 Labs, Jamba 1.5 Large превосходит Llama 3.1 70B и Mistral Large 2 на задачах длинного контекста, особенно на бенчмарках RULER и LongBench.
Практическое применение Jamba 1.5 Large сосредоточено в корпоративном сегменте. AI21 Labs позиционирует модель прежде всего для задач, где длина контекста критична: анализ контрактов и юридических документов, суммаризация обширных баз знаний, работа с крупными финансовыми отчётами. Компания предлагает корпоративным клиентам возможность fine-tuning под специфические задачи через партнёрское соглашение.
Доступ к Jamba 1.5 Large осуществляется через платформу AI21 Studio и Azure AI, что обеспечивает корпоративный уровень SLA и соответствие требованиям безопасности данных. Модель также доступна через Amazon Bedrock, что делает её привлекательной для компаний, уже использующих инфраструктуру AWS. API совместим со стандартом OpenAI Chat Completions.