В профильных сообществах обсуждают слухи о выходе DeepSeek V4 в октябре. Главные обещания: контекст до 1 млн токенов, новые режимы рассуждений на базе метода GRPO, а также архитектуры NSA и SPCT, которые должны ускорить работу модели и снизить стоимость инференса.
Официального анонса пока не было, но если прогнозы подтвердятся, пользователи смогут обрабатывать целые книги или репозитории кода без нарезки на куски. А главное, DeepSeek снова всех удивит и сможет легко обойти лидеров в области ИИ.
Для бизнеса это означает более дешёвые и быстрые вычисления, а для разработчиков — заметный рост качества в математике, программировании и других задачах, где важны многошаговые рассуждения.
Что известно про технологии:
- GRPO (Group Relative Policy Optimization) — вариант обучения с подкреплением, где модель не просто получает одну «правильную» траекторию, а сравнивает несколько своих решений между собой и учится предпочитать лучшие обучения с подкреплением. Уже применялась DeepSeek для улучшения пошаговой логики.
- NSA — разрежённая архитектура внимания, оптимизированная под «железо». Вместо квадратичной «матрицы внимания» используются шаблоны: скользящие окна, «глобальные» токены, блок-спарс и т. п. Это резко снижает объём вычислений и памяти.
- SPCT (Self-Principled Critique Tuning) — самокритика и самотюнинг. Модель сама формулирует критерии хорошего ответа («принципы»), критикует свои варианты и доводит их до ума.
Проще говоря, ответы станут быстрее, дешевле и качественнее, особенно при работе с большими объёмами текста или сложными заданиями.
Главное: Если DeepSeek V4 действительно объединит всё сразу — длинный контекст + GRPO-рассуждения + SPCT-самокритику, то компания получит конкурентное преимущество над OpenAI, Claude и Gemini. Пользователю не придётся выбирать между «умной моделью» и «длинной моделью» — всё будет в одном решении.
В этом году DeepSeek уже выпустил модель R1 с открытой лицензией и ставкой на рассуждения, а в августе представил V3.1 с режимами Think/Non-Think для агентных сценариев. V4 выглядит логичным развитием этой линии.
Ранее компания Alibaba представила ИИ-модель на 1 трлн параметров — Qwen3-Max.