ACE-Step выпустил XL-версию с 4B параметрами — и она обходит Suno v5 на метриках качества. MIT-лицензия, три варианта модели, запуск на своём железе.
DeepSeek V4 вышел — триллион параметров, миллион токенов и MIT-лицензия
DeepSeek выпустил V4 Preview: две MoE-модели с контекстом в миллион токенов, тремя архитектурными нововведениями и ценой, от которой конкурентам станет не по себе.
DeepSeek не просто выпустил очередную модель — они выкатили сразу две, с триллионом параметров на борту, миллионом токенов контекста и MIT-лицензией. И если раньше вы следили за гонкой моделей как за шахматным турниром, то сейчас китайская лаборатория сделала ход, после которого доска выглядит совсем иначе.
Что внутри
DeepSeek V4 — это два Mixture-of-Experts (MoE) модели:
- V4-Pro — 1,6 триллиона параметров (49 миллиардов активных за раз). Это самая большая открытая модель в мире прямо сейчас — крупнее Kimi K2.6 (1,1T) и в два с лишним раза больше предыдущего DeepSeek V3.2 (685B).
- V4-Flash — 284 миллиарда параметров (13 миллиардов активных). Быстрее, дешевле, на простых задачах не уступает Pro.
Обе модели поддерживают контекст в миллион токенов — и это теперь стандарт для всех сервисов DeepSeek, включая веб-версию и приложение. Лицензия MIT, веса открыты на HuggingFace.
Три архитектурных нововведения, которые стоит знать
V4 — это не просто «взяли V3 и сделали побольше». Внутри три принципиально новых механизма:
- Engram — условная память O(1) для статических фактов. Хранится в DRAM, разгружает GPU на 20–25%. По сути, модель отделяет «справочные знания» от «активного мышления».
- Manifold-Constrained Hyper-Connections — стабилизация обучения при масштабах 1T+ через ограничение матриц смесей бистохастическим многогранником (алгоритм Sinkhorn-Knopp). Звучит как научная фантастика, но именно это позволило модели вообще обучиться на таком масштабе.
- DeepSeek Sparse Attention — сжатие по токенам + DSA-внимание, которое убирает квадратичную стоимость на длинных контекстах. Именно поэтому миллион токенов работает, а не просто заявлен в спецификации.
Агентский кодинг — главная ставка
DeepSeek V4 целенаправленно оптимизирован под агентные фреймворки: Claude Code, OpenClaw, OpenCode, CodeBuddy. Внутри самой компании V4-Pro уже используют как основную модель для агентного кодинга.
По отзывам сотрудников: превосходит Sonnet 4.5, приближается к Opus 4.6 в обычном режиме, но уступает Opus 4.6 в thinking-режиме. Для открытой модели — это серьёзная заявка.
Три режима рассуждения добавляют гибкости:
- Non-Think — быстрый ответ без цепочки рассуждений
- Think High — логический анализ
- Think Max — максимальная глубина рассуждений
Разница между режимами колоссальная: на HMMT 2026 Flash в Non-Think даёт 40,8 баллов, а в Think Max — 94,8. Пятьдесят четыре пункта разницы за thinking budget.
Бенчмарки: где V4 уже на уровне фронтира
- Агентский кодинг (terminal, computer use) — на уровне GPT-5.5
- Production engineering (SWE-Bench) — V4-Pro практически вровень с Opus 4.7
- Олимпиадная математика и алгоритмы — лучший результат у V4-Pro-Max
- Factual QA (SimpleQA) — лидирует V4-Pro-Max
- Long context retrieval (1M) — уступает GPT-5.5 на MRCR v2
- Reasoning на знаниях (GPQA, HLE) — Opus 4.7 пока впереди
Цена, от которой конкурентам не по себе
API уже доступен: модели называются deepseek-v4-pro и deepseek-v4-flash. Старые имена deepseek-chat и deepseek-reasoner перестанут работать 24 июля 2026.
Прогнозируемая цена V4-Pro — порядка $0,14–0,30 за миллион входных токенов. Для сравнения: Claude Opus 4.6 стоит ~$15 за миллион. Разница в 50–100 раз при сопоставимом качестве на ряде задач.
Что это значит в реальности
DeepSeek V4 — это не «ещё одна китайская модель». Это открытая модель уровня фронтира с MIT-лицензией и ценой, которая делает продвинутый AI-кодинг доступным для малых команд и независимых разработчиков.
Если вы используете агентные фреймворки вроде OpenClaw или Claude Code — попробуйте подключить V4-Pro. Если вам нужна скорость и бюджет — Flash. В обоих случаях миллион токенов контекста меняет правила игры для работы с большими кодовыми базами и длинными документами.
По теме
- Статья: Два агента лучше одного: как связать OpenClaw и Hermes Agent в единую систему
- Блог: GPT-5.5 вышла — OpenAI снова двигает планку и ставит на агентов
- База знаний: MaxClaw — облачный AI-агент от MiniMax на базе OpenClaw
Если вы строите AI-инфраструктуру и хотите разобраться, какая модель подойдёт под ваши задачи — напишите, разберёмся вместе.