GLM-5.1
Флагманская агентная модель для кодинга. 744B параметров MoE, 40B активных. Обучена на чипах Huawei Ascend 910B. Лидер SWE-Bench Pro (58.4%). Поддерживает 600+ итераций без деградации. MIT лицензия. Максимальный output 128K токенов.
Тарифы
- $3.15/1M output
- 200K контекст
- 128K output
- MIT лицензия
- HuggingFace
Плюсы и минусы
Плюсы
- MIT лицензия — максимально свободная
- Лидер SWE-Bench Pro (58.4%)
- 600+ итераций без деградации
- Output до 128K токенов
Минусы
- Обучена на чипах Huawei — вопросы к NVIDIA-оптимизации
- Пиковые часы стоят 3x
- Фокус на коде — менее универсальна
- Документация на китайском
Подробный обзор
Что такое GLM-5.1
GLM-5.1 — флагманская агентная модель от Zhipu AI (Z.AI), специализированная на долгосрочном инженерном кодинге. 744B параметров MoE с 40B активных на токен. Полностью обучена на чипах Huawei Ascend 910B без оборудования NVIDIA. Лицензия MIT.
Ключевые возможности
Лидер SWE-Bench Pro с результатом 58.4% — лучшая открытая модель для агентного кодинга. Способна поддерживать продуктивность на протяжении 600+ итераций оптимизации и тысяч вызовов инструментов без деградации. Максимальный output 128K токенов за один запрос.
Контекст 200K токенов. MIT лицензия — максимально свободная, без ограничений на коммерческое использование. Интеграция с Claude Code, Cline и другими IDE-инструментами.
Сравнение с конкурентами
На SWE-Bench Pro GLM-5.1 обгоняет Claude Opus 4.6 и GPT-5.4. Однако на общих задачах рассуждения уступает им — модель заточена именно под агентный кодинг. По цене ($0.95/1M input) дороже Qwen 3 ($0.05/1M), но значительно дешевле Claude Opus.
Как начать
API через bigmodel.cn или OpenRouter. Self-hosted — веса на HuggingFace и ModelScope под MIT. Подписка GLM Coding от $10/мес для IDE-интеграции.