Gemma 4
Семейство открытых мультимодальных моделей Google. 4 варианта от 2.3B до 31B. Текст, изображения, аудио, видео. 31B Dense — #3 в Arena AI. Apache 2.0, 140+ языков, function calling.
Тарифы
- 0.35/1M output
- Мультимодальность
- Apache 2.0
- Открытые веса
Плюсы и минусы
Плюсы
- Полностью открытая Apache 2.0
- Мультимодальность из коробки
- MoE 26B: 3.8B активных — запуск на потребительском GPU
- 140+ языков и function calling
Минусы
- Нет генерации изображений — только анализ
- 31B Dense требует H100 80GB
- Уступает GPT-5 и Claude Opus
- Edge-модели ограничены 128K контекстом
Подробный обзор
Что такое Gemma 4
Gemma 4 — семейство открытых мультимодальных моделей от Google DeepMind, выпущенное в апреле 2026 года. Включает четыре варианта: компактные E2B и E4B для мобильных устройств, эффективную MoE-модель 26B (только 3.8B активных параметров) и флагманскую 31B Dense, занявшую третье место в мировом рейтинге Arena AI среди открытых моделей.
Все модели выпущены под лицензией Apache 2.0 — полностью свободны для коммерческого использования. Поддержка 140+ языков, нативная мультимодальность (текст, изображения, аудио, видео), встроенный вызов функций и режим рассуждений.
Ключевые возможности
Архитектура Gemma 4 построена на технологиях Gemini. 31B Dense показывает 85.2% на MMLU Pro, 89.2% на AIME 2026 и 80% на LiveCodeBench. MoE-вариант 26B активирует лишь 3.8B параметров на токен, что делает инференс в 3-4 раза дешевле при сопоставимом качестве.
Контекстное окно: 128K для компактных моделей и 256K для 26B/31B. Нативная поддержка изображений, аудио и видео на входе. Встроенный function calling для интеграции с внешними API и инструментами.
Для кого подходит
Разработчики, которым нужна мощная открытая модель без лицензионных ограничений. E2B/E4B работают на смартфонах и Raspberry Pi. 26B MoE — на потребительских GPU (RTX 4090). 31B Dense — на серверах с H100.
Сравнение с конкурентами
По сравнению с Llama 4 Scout (Meta), Gemma 4 имеет меньший контекст (256K vs 10M), но лучше показывает себя на бенчмарках качества. В отличие от Qwen 3, Gemma 4 нативно мультимодальна (аудио + видео). Apache 2.0 лицензия Gemma не имеет ограничений по MAU, в отличие от Llama 4 Community License (700M MAU).
Как начать использовать
Через Google AI Studio (ai.google.dev) — бесплатный API с генеративным SDK. Через OpenRouter — $0.08/1M input для 26B. Локально — скачать веса с HuggingFace и запустить через Ollama, vLLM или SGLang.