Каталог моделей
🧠 Мультимодальная💬 Текст🎨 Изображения💻 Код API Open Source

DeepSeek V4

DeepSeekКонтекст: 1M tokens Сайт

Ожидаемая флагманская open-source модель от DeepSeek. 1 трлн параметров (MoE, ~37 млрд активных), контекст 1 млн токенов, архитектура Engram для условной памяти. Первая фронтирная модель на чипах Huawei Ascend без NVIDIA. Предварительные бенчмарки: SWE-bench 80%+, HumanEval 90%. Ожидаемая цена — в 20–50 раз дешевле западных аналогов. Полный релиз ожидается в апреле 2026.

Тарифы

Free
Бесплатно
  • Полный неограниченный доступ

Плюсы и минусы

Плюсы

  • В 20–50 раз дешевле GPT-5.4 и Claude при сопоставимом качестве
  • Open-source (Apache 2.0) — можно запускать локально
  • 1 трлн параметров, но всего ~37 млрд активных — эффективный инференс
  • Работает на потребительском железе (RTX 5090)

Минусы

  • Официально ещё не вышла — бенчмарки не подтверждены независимо
  • Вопросы к приватности данных при использовании API
  • Санкционные ограничения на API в некоторых юрисдикциях

Подробный обзор

DeepSeek V4 — следующая флагманская модель китайской лаборатории DeepSeek, которая может стать самым значимым open-source релизом 2026 года. На апрель модель официально ещё не вышла, однако V4 Lite появилась на платформе 9 марта, а полный релиз ожидается в ближайшие недели. Reuters подтвердил, что модель будет работать на чипах Huawei Ascend 950PR — впервые в истории фронтирная модель обходится без NVIDIA.

Архитектура и ключевые характеристики

DeepSeek V4 построена на архитектуре Mixture-of-Experts (MoE) с общим числом параметров около 1 триллиона. При этом на каждый токен активируется лишь ~37 миллиардов параметров, что делает инференс сопоставимым по нагрузке с моделями среднего размера.

Контекстное окно составляет 1 миллион токенов. Для эффективной работы с таким объёмом DeepSeek разработала три архитектурных нововведения: Engram — систему условной памяти, разделяющую статические знания и динамическое рассуждение; mHC (Manifold-Constrained Hyper-Connections) — метод стабилизации обучения при экстремальном масштабе; и DeepSeek Sparse Attention — механизм, снижающий вычислительные затраты на внимание на 50%.

Модель нативно поддерживает мультимодальный ввод: текст, изображения и видео обрабатываются совместно без отдельных модулей.

Предварительные бенчмарки

Все текущие показатели основаны на внутренних тестах DeepSeek и утечках — независимая верификация пока отсутствует.

БенчмаркDeepSeek V4 (заявл.)Claude Opus 4.6GPT-5.4
SWE-bench Verified80–85%80.8%74.9%
HumanEval90%
Needle-in-Haystack (1M)97%
Ожидаемая цена API (вход)~$0.14/1M~$15/1M

Если заявленные показатели подтвердятся, DeepSeek V4 станет первой open-source моделью, полностью сопоставимой с лучшими закрытыми решениями — при стоимости в 20–50 раз ниже.

Аппаратная независимость

Это, пожалуй, главная история вокруг V4. Модель оптимизирована для работы на китайских чипах Huawei Ascend 950PR, производительность которых, по данным Reuters, в 2.87 раза превышает NVIDIA H20 — чип, разрешённый к экспорту в Китай. Alibaba, ByteDance и Tencent уже заказали сотни тысяч единиц Ascend, а цены выросли на 20%.

Для индивидуальных пользователей модель обещает запуск на потребительском железе: две RTX 4090 или одна RTX 5090 благодаря квантизации INT8/INT4.

Кому подойдёт

DeepSeek V4 целенаправленно создавалась для разработчиков. Контекст в 1 миллион токенов позволяет загружать целые кодовые базы, а Engram-память обеспечивает точное извлечение информации из огромных репозиториев. Модель заточена под рефакторинг, отладку многофайловых проектов и генерацию кода на уровне репозитория.

Для компаний, работающих с конфиденциальными данными, open-source лицензия Apache 2.0 означает возможность полностью локального развёртывания без отправки данных на внешние серверы.

Итог

DeepSeek V4 пока остаётся обещанием, но обещанием очень убедительным. Если модель подтвердит заявленные характеристики, она радикально изменит экономику рынка ИИ — фронтирное качество за копейки и полностью под контролем пользователя. Следите за обновлениями: релиз ожидается до конца апреля 2026.

Похожие модели

Текст

GigaChat 2.0

Сбер

Флагманская российская языковая модель от Сбера. Контекст 128K токенов, долговременная память, встроенный интерпретатор кода и автономный веб-поиск. Лучшее понимание русского языка среди всех моделей.

Бесплатно
Текст

Qwen 3

Alibaba Cloud

Серия LLM от Alibaba с гибридным рассуждением. 8 моделей: 6 плотных (0.6B-32B) и 2 MoE (30B/3B, 235B/22B). 36 трлн токенов обучения, 119 языков. Думающий режим для сложных задач, быстрый для простых. Apache 2.0.

$0.05/1M input
Мультимодальная

Claude Sonnet 4.6

Anthropic

Оптимальная модель Anthropic по соотношению цены и качества из семейства Claude 4.6. Приближается к Opus по интеллекту при значительно меньшей стоимости. Отлично справляется с кодингом, анализом документов, агентными задачами и computer use. Контекст 1M токенов, до 64K токенов на выходе. Идеальна для повседневных рабочих задач, где нужен баланс между скоростью, качеством и ценой.

$20/мес
Мультимодальная

GPT-5.4

OpenAI

Флагманская модель OpenAI с контекстным окном в 1 млн токенов. Лидирует в рейтингах по комплексным задачам: рассуждения, анализ, генерация кода и работа с длинными документами. Доступна в версиях Standard, Thinking и Pro. Поддерживает текст, изображения и код. На 33% меньше галлюцинаций по сравнению с GPT-5.2

Бесплатно
Мультимодальная

Muse Spark

Meta

Первая закрытая модель Meta от Superintelligence Labs. Мультимодальная модель рассуждений: текст, изображения, речь. Уникальный Contemplating Mode — мульти-агентная параллельная система. Три режима: Instant, Thinking, Contemplating. Бесплатно через meta.ai.

Бесплатно

Используете DeepSeek V4?

Поделитесь опытом в нашем сообществе

Написать пост