DeepSeek выпустил V4 Pro и V4 Flash — MIT open-source модели с 1M контекста. Flash стоит $0.14/M токенов — дешевле, чем любой западный аналог.
24 апреля китайская лаборатория DeepSeek тихо опубликовала в своём API-блоге техпост о V4 Preview. Без конференций, без пресс-релизов. Просто обновили документацию — и рынок начал лихорадить.
DeepSeek-V4-Flash стоит $0.14 за миллион входных токенов и $0.28 за выходных. Для сравнения: GPT-4o обходится в $5 и $15 соответственно. Claude Sonnet — $3 и $15. Разница — в 20-50 раз.
Два варианта модели:
V4 Pro — флагман. Архитектура MoE (Mixture of Experts): 1.6 триллиона параметров общих, но при инференсе активно только 49 миллиардов. Цена: $1.74/M input, $3.48/M output. Это уровень Claude Sonnet по задачам рассуждения — только в полтора раза дешевле.
V4 Flash — облегчённая версия. 284 миллиарда параметров, 13 миллиардов активных. Именно Flash задаёт новую нижнюю планку цены на рынке. Для задач суммаризации, классификации, RAG-пайплайнов, где не нужна топовая мощь, — это рабочий вариант за смешные деньги.
Оба варианта: MIT-лицензия, 1 миллион токенов контекста, dual-mode (Thinking / Non-Thinking).
Для ориентира: 1M токенов — примерно 750 000 слов, или ~1 500 страниц текста. Это кодовая база среднего стартапа целиком, или все деловые переписки за год, или десяток длинных юридических договоров в одном промпте.
До V4 миллион токенов предлагали единицы: Gemini 1.5 Pro (платно, в Google Cloud), некоторые варианты Claude через API. DeepSeek делает это доступным для всех через открытые веса.
Это важная деталь, которую легко пропустить в новостной суете. В модели встроены два режима инференса:
Non-Thinking — классический: модель сразу выдаёт ответ. Быстро, дёшево, для большинства задач.
Thinking — модель «думает вслух» перед ответом, как в режиме o1 у OpenAI. Пошаговое рассуждение, цепочка умозаключений, лучше на сложных математических и логических задачах.
Переключается одним параметром в API. Это не разные модели и не разные версии — один эндпоинт, один прайс, два поведения.
Когда DeepSeek говорит MIT — это не маркетинг. MIT-лицензия означает: берите веса, запускайте на своих серверах, встраивайте в продукт, модифицируйте, продавайте — без роялти и без ограничений. Единственное условие — сохранить текст лицензии.
Это принципиально отличает V4 от закрытых GPT-4o и Claude: вы не зависите от чужих серверов, данные не покидают вашу инфраструктуру, нет риска изменения условий или отключения доступа.
Для российских компаний с требованиями по локализации данных — это отдельный жирный плюс. Развернули на своём железе, и разговор с compliance-отделом становится намного проще.
Возьмём конкретный сценарий: обработка 100 миллионов токенов в месяц (средняя нагрузка SaaS-продукта с AI-функцией).
| Модель | Input (100M токенов) | Output (50M токенов) | Итого/мес |
|---|---|---|---|
| GPT-4o | $500 | $750 | $1 250 |
| Claude Sonnet | $300 | $750 | $1 050 |
| Gemini 1.5 Pro | $350 | $525 | $875 |
| DeepSeek V4 Pro | $174 | $174 | $348 |
| DeepSeek V4 Flash | $14 | $14 | $28 |
Для Flash это разница между «AI-функция сожрала весь бюджет» и «AI-функция стоит дешевле хостинга».
Честно о минусах:
Задержка. V4 гоняется на китайских дата-центрах. Для пользователей из Европы и России latency выше, чем у Azure или AWS. Для батч-обработки это неважно, для real-time UI — нужно проверять.
Цензура. DeepSeek по-прежнему отказывается обсуждать ряд тем, связанных с историей и политикой КНР. Для большинства бизнес-задач несущественно, но знать стоит.
Нет официальной поддержки. MIT-open-source — значит, нет SLA, нет гарантий аптайма в облачном API, нет службы поддержки. Если кладёте в прод — планируйте fallback.
Хостинг весов. V4 Pro — 1.6T параметров. Запустить локально стоит несколько сотен тысяч долларов в GPU. Для большинства это означает зависимость от облачного DeepSeek API или сторонних провайдеров вроде Featherless AI, Together AI, Fireworks.
Если вы разработчик или строите продукт с AI:
Параллельно DeepSeek есть смысл тестировать в связке с другими инструментами. Cursor и GitHub Copilot поддерживают кастомные OpenAI-совместимые эндпоинты — DeepSeek API совместим, подключается без танцев с бубном.
DeepSeek V4 — не просто дешёвая модель. Это сигнал, что gap между «закрытыми frontier-моделями» и «открытыми, которые чуть хуже» сужается до неразличимости для практических задач.
ChatGPT, Claude, Gemini остаются лидерами в бенчмарках. Но бенчмарк в офисе не висит. В продукте висит строка расходов на API. И когда Flash за $0.14 справляется с задачей не хуже GPT-4o за $5 — у продуктовых команд появляется очень конкретный вопрос: зачем переплачивать?
Ответ, конечно, не всегда «незачем». Но сам факт того, что вопрос возникает — меняет переговорную позицию всего рынка.
1 мая 2026 Microsoft запустил Copilot Cowork и Agent 365 в GA. Разбираем, что входит в M365 E7 за $99/user/мес и стоит ли переходить.
ЧитатьOpenAI представил GPT-5 — самую мощную языковую модель. Разбираем ключевые улучшения и отличия от GPT-4.
ЧитатьMidjourney запустил веб-интерфейс с редактором изображений, доступный без Discord.
Читать