Claude Haiku 4.5 vs GLM-5.1 — сравнение бенчмарков
Claude Haiku 4.5 и GLM-5.1 сопоставимы, при этом GLM сильнее в китайском языке и мультимодальности, а Haiku — в следовании инструкциям на русском и английском.
Бенчмарки
* Бенчмарки — стандартизированные тесты для оценки качества ИИ-моделей. Чем выше балл, тем лучше модель справляется с задачей.
Claude Haiku 4.5 от Anthropic и GLM-5.1 от Zhipu AI — лёгкие модели схожего уровня возможностей. GLM-5.1 оптимизирован для китайского языка и поддерживает мультимодальный ввод. На MMLU Haiku незначительно лидирует: 82 vs 80.
GLM-5.1 превосходит Haiku в математических задачах (MATH: 74 vs 68), что объясняется особенностями обучения на китайских математических датасетах. Haiku 4.5 стабильнее на русском и английском, лучше следует сложным системным промптам. Для международных проектов Haiku предпочтительнее, для работы с китайским рынком — GLM.
Быстрая и экономичная модель Anthropic. 200K контекст, до 64K выход. Extended thinking, computer use, context awareness. Производительность уровня Claude Sonnet 4 в 3 раза дешевле. Скорость в 4-5 раз выше Sonnet 4.5.
Тарифы, обзор, бенчмарки →Флагманская агентная модель для кодинга. 744B параметров MoE, 40B активных. Обучена на чипах Huawei Ascend 910B. Лидер SWE-Bench Pro (58.4%). Поддерживает 600+ итераций без деградации. MIT лицензия. Максимальный output 128K токенов.
Тарифы, обзор, бенчмарки →