DeepSeek V4
Ожидаемая флагманская open-source модель от DeepSeek. 1 трлн параметров (MoE, ~37 млрд активных), контекст 1 млн токенов, архитектура Engram для условной памяти. Первая фронтирная модель на чипах Huawei Ascend без NVIDIA. Предварительные бенчмарки: SWE-bench 80%+, HumanEval 90%. Ожидаемая цена — в 20–50 раз дешевле западных аналогов. Полный релиз ожидается в апреле 2026.
Тарифы
- Полный неограниченный доступ
Плюсы и минусы
Плюсы
- В 20–50 раз дешевле GPT-5.4 и Claude при сопоставимом качестве
- Open-source (Apache 2.0) — можно запускать локально
- 1 трлн параметров, но всего ~37 млрд активных — эффективный инференс
- Работает на потребительском железе (RTX 5090)
Минусы
- Официально ещё не вышла — бенчмарки не подтверждены независимо
- Вопросы к приватности данных при использовании API
- Санкционные ограничения на API в некоторых юрисдикциях
Подробный обзор
DeepSeek V4 — следующая флагманская модель китайской лаборатории DeepSeek, которая может стать самым значимым open-source релизом 2026 года. На апрель модель официально ещё не вышла, однако V4 Lite появилась на платформе 9 марта, а полный релиз ожидается в ближайшие недели. Reuters подтвердил, что модель будет работать на чипах Huawei Ascend 950PR — впервые в истории фронтирная модель обходится без NVIDIA.
Архитектура и ключевые характеристики
DeepSeek V4 построена на архитектуре Mixture-of-Experts (MoE) с общим числом параметров около 1 триллиона. При этом на каждый токен активируется лишь ~37 миллиардов параметров, что делает инференс сопоставимым по нагрузке с моделями среднего размера.
Контекстное окно составляет 1 миллион токенов. Для эффективной работы с таким объёмом DeepSeek разработала три архитектурных нововведения: Engram — систему условной памяти, разделяющую статические знания и динамическое рассуждение; mHC (Manifold-Constrained Hyper-Connections) — метод стабилизации обучения при экстремальном масштабе; и DeepSeek Sparse Attention — механизм, снижающий вычислительные затраты на внимание на 50%.
Модель нативно поддерживает мультимодальный ввод: текст, изображения и видео обрабатываются совместно без отдельных модулей.
Предварительные бенчмарки
Все текущие показатели основаны на внутренних тестах DeepSeek и утечках — независимая верификация пока отсутствует.
| Бенчмарк | DeepSeek V4 (заявл.) | Claude Opus 4.6 | GPT-5.4 |
|---|---|---|---|
| SWE-bench Verified | 80–85% | 80.8% | 74.9% |
| HumanEval | 90% | — | — |
| Needle-in-Haystack (1M) | 97% | — | — |
| Ожидаемая цена API (вход) | ~$0.14/1M | ~$15/1M | — |
Если заявленные показатели подтвердятся, DeepSeek V4 станет первой open-source моделью, полностью сопоставимой с лучшими закрытыми решениями — при стоимости в 20–50 раз ниже.
Аппаратная независимость
Это, пожалуй, главная история вокруг V4. Модель оптимизирована для работы на китайских чипах Huawei Ascend 950PR, производительность которых, по данным Reuters, в 2.87 раза превышает NVIDIA H20 — чип, разрешённый к экспорту в Китай. Alibaba, ByteDance и Tencent уже заказали сотни тысяч единиц Ascend, а цены выросли на 20%.
Для индивидуальных пользователей модель обещает запуск на потребительском железе: две RTX 4090 или одна RTX 5090 благодаря квантизации INT8/INT4.
Кому подойдёт
DeepSeek V4 целенаправленно создавалась для разработчиков. Контекст в 1 миллион токенов позволяет загружать целые кодовые базы, а Engram-память обеспечивает точное извлечение информации из огромных репозиториев. Модель заточена под рефакторинг, отладку многофайловых проектов и генерацию кода на уровне репозитория.
Для компаний, работающих с конфиденциальными данными, open-source лицензия Apache 2.0 означает возможность полностью локального развёртывания без отправки данных на внешние серверы.
Итог
DeepSeek V4 пока остаётся обещанием, но обещанием очень убедительным. Если модель подтвердит заявленные характеристики, она радикально изменит экономику рынка ИИ — фронтирное качество за копейки и полностью под контролем пользователя. Следите за обновлениями: релиз ожидается до конца апреля 2026.